Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Tekniken går framåt, men istället för att sänka elräkningen går den bara upp

Det råder ingen tvekan om att kostnaden för el kommer att stiga på grund av politikers girighet och deras åtgärder, som är lätta att säga, men de är gjorda med alla våra pengar. Vi pratar dock inte om dessa frågor och även om vi vet att elräkningen har stigit artificiellt, är det som intresserar oss att förklara varför grafikkort förbrukar mer och mer, som processorer, RAM-minnen. Det vill säga alla komponenter inuti vår PC.

Tekniken går framåt

Att de nya markerna höjer notan är oundvikligt

Om vi ​​tittar på någon processorarkitektur, generell eller specialiserad, kommer vi att inse att mer än hälften av kretsarna, om inte mer än två tredjedelar, inte existerar för att bearbeta data, utan för att kommunicera det mellan de olika delarna. Och vi får inte glömma att dagens marker kan ha en eller flera funktioner samtidigt, men de kan sammanfattas i tre huvudfunktioner:

  • Att bearbeta data.
  • överföra data.
  • Lagra data.

Tja, även om det kan verka kontraproduktivt för många, har det faktum att bearbeta information en kostnad både i antalet transistorer inuti processorn och i den riktigt försumbara energikostnaden. Och en bra del av designen av processorerna är att föra informationen till exekveringsenheterna så att de kan bearbeta den. Problemet är att det på grund av fysikens lagar är dyrare att transportera bitar än något annat idag och en av konsekvenserna är att chips höjer elräkningen, vilket uppenbarligen förbrukar mer.

Detta kallas Von Neumann-väggen, eftersom den är inneboende i alla arkitekturer, oavsett om vi pratar om en server, en mobiltelefon eller en videospelskonsol, och det har blivit den största huvudvärken för ingenjörer idag. . Och mer med behovet av att minska koldioxidavtrycket.

Mikrooperationer CPU

Förklara problemet kvantitativt

Normalt brukar vi ge chipsens strömförbrukning i watt (W), vilket är Joule per sekund. Eftersom bandbredden är byte eller bit per sekund, för att inte blanda ihop båda termerna, är ett sätt att mäta en enkel dataöverföring att se hur många joule den förbrukar. Tja, vi är skyldiga följande graf till Bill Dally, NVIDIAs chefsforskare och en av världens främsta experter på datorarkitekturer:

Bill Dally Coste Transferencia subida consumo chips suban factura

Då måste vi utgå från det faktum att en nJ eller nanoJoule är 1000 pJ eller picoJoule. Det vill säga, om vid bearbetning av en aritmetisk operation med dubbel precision eller 64-bitars flyttals, beroende på var data finns, kommer förbrukningen för att utföra samma operation att variera:

  • Om data finns i arkiven kommer det bara att kosta 20 pJ eller 0,02 nJ.
  • Om vi ​​måste komma åt cachen för att hitta dem går saken upp till 50 pJ eller 0,05 nJ
  • Å andra sidan, om data finns i RAM, stiger förbrukningen till 16 nJ eller 16000 pJ.

Att komma åt RAM kostar med andra ord 1000 gånger mer energi för att utföra samma operation än vad informationen finns i processorn. Lägger vi till detta den interna interkommunikationen mellan komponenterna i en processor och den externa, så har vi chip som kan bearbeta stora mängder data, men samtidigt behöver de en stor mängd energi för att fungera.

Vilka lösningar kommer vi att se i framtiden?

För närvarande är de bara labblösningar, men de är beprövade och kan förändra vårt sätt att förstå datorer. Främst har vi två olika lösningar på problemet.

Nära minnesbehandling

Den första av dessa är nära-minnesbehandling, som består av att flytta minnet närmare processorer. Tanken är ingen annan än att lägga minnet väldigt nära processorn, tyvärr kan vi inte lägga de tiotals gigabyte RAM som vi kommer att se på kort sikt i PC, utan en extra stor cachenivå som kraftigt ökar kapaciteten för att kunna hitta data i den och minska förbrukningen.

Konstigt nog är strategin att öka storleken på cacharna den som utförs av NVIDIA med dess Lovelace-arkitektur, vilket ökar L2 från en generation till en annan 16 gånger. Detta räcker dock inte. Vilket leder oss till slutsatsen att en ny minnesnivå kommer att bli nödvändig. Närmare processorn och därför med mindre energiförbrukning. Det vill säga, om några år kommer vi att prata om snabbt RAM och långsamt RAM på vår PC. Den senare använder möjligen CXL-gränssnittet.

V-Cache ISSCC 2022

Bearbetning i minnet

Den andra saken är vad vi kallar PIM, de är inte själva processorer, utan minneschips med interna bearbetningsmöjligheter. Det vill säga, de är fortfarande minnen, men vissa specifika algoritmer kan köras i dem. Föreställ dig till exempel att vi måste göra flera förfrågningar till en databas som finns i RAM för att hitta e-postadressen till en klient. I den konventionella mekanismen skulle vi behöva flera åtkomster till externt minne med låg förbrukning. På så sätt söker istället själva RAM-minnet efter själva datan, med väldigt liten förbrukning då det inte behöver nås externt och bara måste skicka data till processorn.

PIM koncept

På så sätt kan vi kraftigt minska mängden överföringar mellan RAM och processor och därmed minska energiförbrukningen. Nackdelen är att applikationerna måste utformas för detta paradigm. Även om det är nödvändigt för att minska energiförbrukningen och förhindra att de nya chipsen höjer elräkningen ännu mer.