Biologiske computere kan bruge langt mindre energi end den nuværende teknologi - ved at arbejde langsommere
Menneskets biologi er langt mere energieffektiv end nutidens databehandling.
Moderne computere er en triumf for teknologi. En enkelt computerchip indeholder milliarder af nanometerskalerede transistorer, der fungerer ekstremt pålideligt og med en hastighed på millioner af operationer i sekundet.
Denne høje hastighed og pålidelighed kommer dog på bekostning af et betydeligt energiforbrug: Datacentre og husholdnings-it-apparater som computere og smartphones tegner sig for omkring 3 % af den globale efterspørgsel efter elektricitet, og brugen af AI vil sandsynligvis drive endnu mere forbrug.
Men hvad nu hvis vi kunne redesigne den måde, computere fungerer på, så de kan udføre beregningsopgaver lige så hurtigt som i dag, mens de bruger langt mindre energi? Her kan naturen tilbyde os nogle potentielle løsninger.
IBM-forskeren Rolf Landauer tog fat på spørgsmålet om, hvorvidt vi skal bruge så meget energi på computeropgaver i 1961. Han kom frem til Landauer-grænsen, som siger, at en enkelt beregningsopgave - for eksempel at indstille en bit, den mindste enhed af computerinformation, til at have en værdi på nul eller en - skal bruge omkring 10⁻²¹ joule (J) energi.
Relateret: Computernes historie: En kort tidslinje
Det er et meget lille beløb på trods af de mange milliarder opgaver, som computere udfører. Hvis vi kunne betjene computere på sådanne niveauer, ville mængden af elektricitet, der bruges til beregning og håndtering af spildvarme med kølesystemer, ikke bekymre sig.
Der er dog en hage. For at udføre en bitoperation nær Landauer-grænsen skal den udføres uendeligt langsomt. Beregning i en hvilken som helst begrænset tidsperiode forventes at koste et ekstra beløb, der er proportionalt med den hastighed, hvormed beregninger udføres. Med andre ord, jo hurtigere beregningen er, jo mere energi bruges der.
På det seneste er dette blevet demonstreret af eksperimenter, der er sat op til at simulere beregningsprocesser: Energispredningen begynder at stige målbart, når du udfører mere end omkring én operation i sekundet. Processorer, der arbejder med en clockhastighed på en milliard cyklusser i sekundet, hvilket er typisk i nutidens halvledere, bruger omkring 10⁻¹¹J pr. bit - omkring ti milliarder gange mere end Landauer-grænsen.
En løsning kan være at designe computere på en fundamentalt anderledes måde. Grunden til, at traditionelle computere arbejder meget hurtigt, er, at de fungerer serielt, én operation ad gangen. Hvis man i stedet kunne bruge et meget stort antal "computere", der arbejdede parallelt, så kunne hver enkelt arbejde meget langsommere.
For eksempel kunne man erstatte en "hare"-processor, der udfører en milliard operationer på et sekund, med en milliard "skildpadde"-processorer, der hver bruger et helt sekund på at udføre deres opgave, til en langt lavere energiomkostning pr. operation. En artikel fra 2023, som jeg var medforfatter til, viste, at en computer så kunne fungere nær Landauer-grænsen ved at bruge størrelsesordener mindre energi end nutidens computere.
Skildpadde kraft
Er det overhovedet muligt at have milliarder af uafhængige "computere", der arbejder parallelt? Parallel behandling i mindre skala er almindeligt anvendt allerede i dag, for eksempel når omkring 10.000 grafikprocessorer eller GPU'er kører på samme tid til træning af kunstig intelligens-modeller.
Dette gøres dog ikke for at reducere hastigheden og øge energieffektiviteten, men snarere af nødvendighed. Grænserne for varmestyring gør det umuligt at øge beregningskraften for en enkelt processor yderligere, så processorer bruges parallelt.
Et alternativt computersystem, der er meget tættere på, hvad der ville være nødvendigt for at nærme sig Landauer-grænsen, er kendt som netværksbaseret bioberegning. Det gør brug af biologiske motoriske proteiner, som er små maskiner, der hjælper med at udføre mekaniske opgaver inde i celler.
Dette system involverer kodning af en beregningsopgave i en nanofabrikeret labyrint af kanaler med omhyggeligt designede skæringspunkter, som typisk er lavet af polymermønstre aflejret på siliciumskiver. Alle mulige veje gennem labyrinten udforskes parallelt af et meget stort antal lange trådlignende molekyler kaldet biofilamenter, som drives af motorproteinerne.
Hver glødetråd er kun et par nanometer i diameter og omkring en mikrometer lang (1.000 nanometer). De fungerer hver især som en individuel "computer", der koder information efter dens rumlige position i labyrinten.
Denne arkitektur er særligt velegnet til at løse såkaldte kombinatoriske problemer. Det er problemer med mange mulige løsninger, såsom planlægningsopgaver, som er beregningsmæssigt meget krævende for serielle computere. Eksperimenter bekræfter, at en sådan biocomputer kræver mellem 1.000 og 10.000 gange mindre energi pr. beregning end en elektronisk processor.
Dette er muligt, fordi biologiske motoriske proteiner selv er udviklet til ikke at bruge mere energi end nødvendigt for at udføre deres opgave med den krævede hastighed. Dette er typisk et par hundrede skridt i sekundet, en million gange langsommere end transistorer.
På nuværende tidspunkt er der kun bygget små biologiske computere af forskere til at bevise konceptet. For at være konkurrencedygtig med elektroniske computere med hensyn til hastighed og beregning og udforske et meget stort antal mulige løsninger parallelt, skal netværksbaseret biocomputation opskaleres.
En detaljeret analyse viser, at dette burde være muligt med den nuværende halvlederteknologi, og at det kan drage fordel af en anden stor fordel ved biomolekyler i forhold til elektroner, nemlig deres evne til at bære individuel information, for eksempel i form af et DNA-mærke.
Der er ikke desto mindre adskillige forhindringer for at skalere disse maskiner, herunder at lære at styre hvert af biofilamenterne præcist, reducere deres fejlrater og integrere dem med den nuværende teknologi. Hvis den slags udfordringer kan overvindes i løbet af de næste par år, kan de resulterende processorer løse visse typer udfordrende beregningsproblemer med en massivt reduceret energiomkostning.
Neuromorf databehandling
Alternativt er det en interessant øvelse at sammenligne energiforbruget i den menneskelige hjerne. Hjernen hyldes ofte som værende meget energieffektiv og bruger kun nogle få watt - langt mindre end AI-modeller - til operationer som vejrtrækning eller tænkning.
Alligevel ser det ikke ud til at være de grundlæggende fysiske elementer i hjernen, der sparer energi. Affyringen af en synapse, som kan sammenlignes med et enkelt beregningstrin, bruger faktisk omtrent den samme mængde energi, som en transistor kræver pr. bit.
Hjernens arkitektur er dog meget tæt forbundet og fungerer fundamentalt anderledes end både elektroniske processorer og netværksbaserede biocomputere. Såkaldt neuromorf databehandling forsøger at efterligne dette aspekt af hjerneoperationer, men ved hjælp af nye typer computerhardware i modsætning til biocomputing.
Det ville være meget interessant at sammenligne neuromorfe arkitekturer med Landauer-grænsen for at se, om den samme slags indsigt fra biocomputing kunne overføres til her i fremtiden. Hvis det er tilfældet, kan det også være nøglen til et stort spring fremad inden for computerens energieffektivitet i de kommende år.
Denne redigerede artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.