Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

AMD Advancing AI & Instinct MI300 Launch Live Blog (startar kl. 10:00 PT/18:00 UTC)

Den här morgonen är en viktig för AMD – kanske årets viktigaste. Efter nästan ett och ett halvt år av uppbyggnad, och ännu längre för faktisk utveckling, lanserar AMD sin nästa generations GPU/APU/AI-acceleratorfamilj, Instinct MI300-serien. Baserat på AMD:s nya CDNA 3-arkitektur, och genom att kombinera den med AMD:s beprövade Zen 4-kärnor, kommer AMD att göra en fullbordspress för high-end GPU- och acceleratormarknaden med sin nya produkt, med sikte på att leda i både stormetall-HPC. såväl som den växande marknaden för generativ AI-träning och slutledning.

På scenen för AMD:s lanseringsevenemang kommer AMD:s VD Dr. LIsa Su, samt ett flertal AMD-chefer och ekosystempartners, för att äntligen detaljera AMD:s senaste generationens GPU-arkitektur och de många former den kommer att komma i. Med båda MI300X-acceleratorn och MI300A APU, siktar AMD på att täcka större delen av acceleratormarknaden, oavsett om kunderna bara behöver en kraftfull GPU eller en tätt kopplad GPU/CPU-parning.

Insatserna för dagens tillkännagivande är betydande. Marknaden för generativ AI är nästan hårdvara begränsad för tillfället, mycket till fördel för (och vinster för) AMD:s rival NVIDIA. Så AMD hoppas kunna dra nytta av detta ögonblick för att skära av en del – kanske en mycket stor del – av marknaden för generativa AI-acceleratorer. AMD har gjort att bryta sig in i serverutrymmet till sin högsta prioritet under det senaste halvt decenniet, och nu tror de att det är dags att ta en stor del av marknaden för server-GPU.


12:56PM EST – Vi är här i San Jose för AMD:s sista och viktigaste lanseringsevenemang för året: Advancing AI

12:57PM EST – Idag gör AMD den efterlängtade lanseringen av nästa generations MI300-serie av acceleratorer

12:58PM EST – Inklusive MI300A, deras första chiplet-baserade server APU, och MI300X, deras grepp om den mest kraftfulla GPU/acceleratorn som är möjlig för AI-marknaden

12:59 EST – Jag skulle säga att evenemanget hålls i AMD:s bakgård, men eftersom AMD sålde sitt campus här i Bay-området för flera år sedan, är detta mer som NVIDIAs bakgård. Vilket är passande med tanke på att AMD vill fånga en del av den mycket lönsamma marknaden för generativ AI från NVIDIA

12:59 EST – Vi ska börja kl 10 lokal tid här – så om en minut eller så

12:59 PM EST – Och hej, nu kör vi. Precis i tid

01:00PM EST – Börjar med en öppningstrailer

01:00 EST – (Och med mig på morgonens liveblogg är den alltid fantastiska Gavin Bonshor)

13:00 EST – Avancerar AI… tillsammans

01:01PM EST – Och här är AMD:s VD, Dr. Lisa Su

01:01PM EST – Idag “handlar allt om AI”

01:01PM EST – Och Lisa dyker direkt in

01:02PM EST – Det har bara gått lite över ett år sedan ChatGPT lanserades. Och det har vänt datorbranschen på huvudet ganska snabbt

01:02PM EST – AMD ser AI som den enskilt mest transformativa tekniken under de senaste 50 åren

01:02PM EST – Och med en ganska snabb adoptionshastighet, trots att man var i början av AI-eran

01:02 EST – Lisas listar över några av användningsfallen för AI

01:03PM EST – Och nyckeln till det? Generativ AI. Vilket kräver betydande investeringar i infrastruktur

01:03PM EST – (som NVIDIA har tagit lejonparten av hittills)

01:03PM EST – År 2023 beräknade AMD att CAGR för AI-marknaden skulle vara 350 miljarder dollar år 2027

01:04PM EST – Nu tror de att det kommer att vara $400B+ till 2027

01:04PM EST – En sammansatt årlig tillväxttakt på mer än 70 %

01:04PM EST – AMD:s AI-strategi är centrerad kring 3 stora strategiska prioriteringar

01:05PM EST – En bred hårdvaraportfölj, ett öppet och beprövat mjukvaruekosystem och partnerskap att saminnovera med

01:05PM EST – (AMD har historiskt kämpat med särskilt programvara)

01:05PM EST – Nu till produkter, som börjar med molnet

01:06PM EST – Generativ AI kräver tiotusentals acceleratorer i high-end

01:06PM EST – Ju mer beräkna, desto bättre modell, desto snabbare svar

01:06PM EST – Lanseras idag: AMD Instinct MI300X accelerator

01:06PM EST – “Högsta prestandaaccelerator i världen för generativ AI”

01:07PM EST – CDNA 3 kommer med en ny beräkningsmotor, sparsitetsstöd, branschledande minnesbandbredd och kapacitet, etc.

01:07PM EST – 3,4x mer perf för BF16, 6,8x INT8 perf, 1,6x minnesbandbredd

01:07 EST – 153B transistorer för MI300X

01:08PM EST – Ett dussin 5nm/6nm chiplets

01:08PM EST – 4 I/O dör i basskiktet

01:08PM EST – 256MB AMD Infinity Cache, Infinity Fabric Support, etc

13:08 EST – 8 XCD-beräkningsmatriser staplade ovanpå

13:08 EST – 304 CDNA 3 beräkningsenheter

01:08PM EST – Kopplad till IOD:erna via TSV:er

01:09PM EST – Och 8 högar HBM3 kopplade till IOD:erna, för 192 GB minne, 5,3 TB/sekund bandbredd

01:09PM EST – Och hoppar omedelbart till H100-jämförelserna

01:10PM EST – AMD har fördelen i minneskapacitet och bandbredd på grund av att de har fler HBM-stackar. Och de tror att det kommer att hjälpa dem att vinna över H100

01:10 EST – AMD finner att de har prestandafördelen i FlashAttention-2 och Llama 2 70B. På kärnnivå i TFLOPS

01:11PM EST – Och hur skalas MI300X?

01:11PM EST – Jämför en enda 8 acceleratorserver

01:12PM EST – Bloom 176B (genomströmning) och Llama 2 70B (latens) slutledningsprestanda.

01:12PM EST – Och nu AMD:s första gäst av många, Microsoft

13:13 EST – MS CTO, Kevin Scott

01:14PM EST – Lisa frågar Kevin om hans tankar om var branschen är på denna AI-resa

01:15PM EST – Microsoft och AMD har byggt grunden i flera år här

01:16 EST – Och MS kommer att erbjuda MI300X Azure-instanser

01:16PM EST – MI300X virtuella datorer är tillgängliga i förhandsvisning idag

01:17 EST – (Så MS har tydligen redan en meningsfull mängd acceleratorer)

01:17 EST – Och det är MS. Tillbaka till Lisa

01:17PM EST – Nu pratar vi om Instinct-plattformen

01:18PM EST – Som är baserad på en OCP (OAM) hårdvarudesign

01:18PM EST – (Inget snyggt namn på plattformen, till skillnad från HGX)

01:18PM EST – Så här är ett helt 8-vägs MI300X-kort

01:18PM EST – Kan släppas in i nästan vilken OCP-kompatibel design som helst

01:19PM EST – Gör det enkelt att installera MI300X

01:19PM EST – Och påpekar att AMD stöder alla samma I/O- och nätverksmöjligheter som konkurrenterna (men med bättre GPU:er och minne, förstås)

01:20 PM EST – Kunder försöker maximera inte bara utrymmet utan även kapitalutgifter och driftskostnader

01:20PM EST – På OpEx-sidan betyder mer minne att man kan köra antingen fler modeller eller större modeller

01:21PM EST – Vilket sparar på CapEx-kostnader genom att köpa färre hårdvaruenheter totalt sett

01:21PM EST – Och nu till nästa partner, Oracle. Karan Batta, SVP för Oracle Cloud Infrastructure

01:22PM EST – Oracle är en av AMD:s stora cloud computing-kunder

01:23PM EST – Oracle kommer att stödja MI300X som en del av deras erbjudanden om bara metal

01:23PM EST – Och MI300X i en generativ AI-tjänst som är under arbete

13:24 EST – Nu på scen: AMD:s president Victor Peng för att prata om mjukvaruframsteg

01:25PM EST – AMD:s mjukvarustack är traditionellt deras akilleshäl, trots ansträngningar att förbättra den. Pengs stora projekt har varit att äntligen få ordning på saker och ting

01:25PM EST – Inklusive att bygga en enhetlig AI-mjukvarustack

01:25PM EST – Dagens fokus ligger på ROCm, AMD:s GPU-mjukvarustack

01:26PM EST – AMD har fast fäst sin häst till öppen källkod, vilket de anser är en stor fördel

01:26PM EST – Förbättrat ROCm-stöd för Radeon GPU:er fortsätter

01:26 EST – ROMc 6-leverans senare denna månad

01:27PM EST – Den har optimerats för generativ AI, för MI300 och annan hårdvara

01:27PM EST – “ROCm 6 ger ett kvantsprång i prestanda och kapacitet”

01:28 EST – Exempel på mjukvaruoptimering med LLM

01:28PM EST – 2,6x från optimerade bibliotek, 1,4x från HIP Graph, etc

01:28PM EST – Detta, i kombination med hårdvaruförändringar, är hur AMD levererar 8x mer GenAI-perf på MI300X jämfört med MI250 (med ROCm 5)

01:29PM EST – Sammanfattning av de senaste förvärven också, såsom nod AI-kompilatorn

01:30PM EST – Och på ekosystemnivå har AMD ett ökande antal partners

01:30PM EST – Hugging Face är utan tvekan den viktigaste, med 62K+ modeller igång på AMD-hårdvara

01:31PM EST – AMD GPU:er kommer att stödjas i OpenAI Triton 3.0-versionen

01:32 EST – Nu för fler gäster: Databricks, Essential AI och Lamini

01:33PM EST – De fyra har en kort pratstund om AI-världen och deras erfarenhet av AMD

01:34PM EST – Pratar om utvecklingen av stora verktyg som vLLM

01:34 EST – Kostnaden är en enorm drivkraft

01:36PM EST – Det var väldigt lätt att inkludera ROCm i Databricks stack

01:36PM EST – Samtidigt tar Essential AI en fullstack-strategi

01:37PM EST – Lättheten att använda för AMD:s programvara var “mycket trevlig”

01:38PM EST – Och slutligen, Laminis VD, som har en doktorsexamen i generativ AI

01:39PM EST – Kunderna får äga sina modeller fullt ut

01:39 PM EST – Ge LLN:er verklig kunskap

01:39PM EST – Hade ett AMD-moln i produktion under det senaste året på MI210s/MI250s

13:40 EST – Lamini har nått mjukvaruparitet med CUDA

01:41PM EST – Många av genAI-verktygen som finns tillgängliga idag är öppen källkod

01:41PM EST – Många av dem kan köras på ROCm idag

01:43PM EST – AMD:s Instinct-produkter är avgörande för att stödja framtiden för affärsprogramvara

01:46PM EST – Och det är mini-rundbordsbordet

13:47 EST – Sammanfattning av de senaste 6 månadernas arbete med programvara

01:47 EST – ROCm 6 skickas snart

01:47 EST – 62K-modeller körs idag, och fler kommer snart

01:48PM EST – Och det är en wrap för Victor Peng. Tillbaka till Lisa Su

01:49PM EST – Och nu till en annan gästplats: Meta

13:49 EST – Ajit Mathews, Senior Director of Engineering på Meta AI

13:50 EST – Meta öppnade åtkomst till Llama 2-modellfamiljen i juli

01:50PM EST – “Ett öppet förhållningssätt leder till bättre och säkrare teknik på lång sikt”

01:51PM EST – Meta har arbetat med EPYC-processorer sedan 2019. Och nyligen distribuerat Genua i stor skala

01:51PM EST – Men det partnerskapet är mycket bredare än CPU:er

01:52PM EST – Har använt instinkten sedan 2020

01:53PM EST – Och Meta är ganska exalterade över MI300

01:53PM EST – Utvidgar sitt partnerskap till att inkludera Instinct i Facebooks datacenter

01:53PM EST – MI300X är ett av deras snabbaste design-att-installera-projekt

01:54PM EST – Och Meta är nöjd med de optimeringar som gjorts för ROCm

01:55PM EST – (Alla dessa gäster är här av en anledning: AMD vill visa att deras plattform är klar. Att kunder använder den idag och har framgång med den)

01:55PM EST – Nu en annan gäst: Dell

13:56 EST – Arthur Lewer, VD för Core Business Operations för Global Infrastrucutre Solutions Group

01:56PM EST – (Att köpa NVIDIA är det säkra spelet; AMD vill visa att köp av AMD inte är ett osäkert spel)

01:57PM EST – Kunder behöver en bättre lösning än dagens ekosystem

01:58PM EST – Dell tillkännager en uppdatering av Poweredge 9680-servrarna. Erbjuder dem nu med MI300X-acceleratorer

01:58PM EST – Upp till 8 acceleratorer i en låda

01:58PM EST – Hjälper kunder att konsolidera LLM-utbildning till färre boxar

01:59PM EST – Redo att citera och ta emot beställningar idag

02:01PM EST – Och det är Dell

02:02PM EST – Och här är en annan gäst: Supermicro (vi har nu växlat från moln till företag)

02:02 EST – Charles Liang, grundare, VD och VD för Supermicro

02:03PM EST – Supermicro är en mycket viktig AMD-serverpartner

14:05 EST – Vad har Supermicro planerat för MI300X?

02:05 PM EST – 8U luftkylt system och 4U-system med vätskekylning

02:05PM EST – Upp till 100kW rack av den senare

02:05PM EST – Och det är Supermicro

02:06PM EST – Och en annan gäst: Lenovo

02:06PM EST – Kirk Skaugen, VD för Lenovos Infrastructure Solutions Group

02:07PM EST – Lenovo tror att genAI kommer att vara en hybrid strategi

02:07PM EST – Och AI kommer att behövas vid kanten

02:08PM EST – 70 AI-förberedda server- och infrastrukturprodukter

02:09PM EST – Lenovo har också ett AI-innovatörsprogram för viktiga vertikaler för att förenkla saker för kunder

02:10PM EST – Lenovo tror att slutsatser kommer att vara den dominerande AI-arbetsbelastningen. Träning behöver bara ske en gång; slutsatser händer hela tiden

02:11PM EST – Lenovo tar med MI300X till sin ThinkSystem-plattform

02:11PM EST – Och tillgänglig som en tjänst

02:12PM EST – Och det är Lenovo

02:13PM EST – Och det är fortfarande bara toppen av isberget för antalet partners AMD har ställt upp för Mi300X

02:13PM EST – Och nu tillbaka till AMD med Forrest Norrod för att prata om nätverk

02:14PM EST – Beräkningen som krävs för att träna de mest avancerade modellerna har ökat med stormsteg under det senaste decenniet

02:14PM EST – Ledande AI-kluster är tiotusentals GPU:er, och det kommer bara att öka

02:14PM EST – Så AMD har arbetat för att skala upp saker på flera fronter

02:14PM EST – Internt med Infinity Fabric

02:15PM EST – Nära linjär skalningsprestanda när du ökar antalet GPU:er

02:15PM EST – AMD utökar tillgången till Infinity Fabric till innovatörer och strategiska partners över hela branschen

02:15PM EST – Vi kommer att höra mer om detta initiativ nästa år

02:16PM EST – Samtidigt är back-end-nätverket som kopplar samman servrarna lika viktigt

02:16PM EST – Och AMD anser att nätverket måste vara öppet

02:17PM EST – Och AMD stödjer Ethernet (i motsats till InfiniBand)

02:17PM EST – Och Ethernet är öppet

02:18PM EST – Nu kommer till scenen några nätverksledare, inklusive Arista, Broadcom och Cisco

14:19 EST – Att ha en paneldiskussion om Ethernet

02:21PM EST – Vilka är fördelarna med Ethernet för AI?

02:22 EST – Majoriteten av hyperskalare använder Ethernet eller har en hög önskan om det

02:23PM EST – NIC är kritiskt. Människor vill ha val

14:24 EST – “Vi måste fortsätta att förnya”

02:24PM EST – AI-nätverk måste vara baserade på öppna standarder. Kunderna behöver val

02:25PM EST – Ultra Ethernet är ett kritiskt nästa steg

02:26 EST – https://www.anandtech.com/show/18965/ultra-ethernet-consortium-to-adapt-ethernet-for-ai-and-hpc-needs

02:28PM EST – UEC löser ett mycket viktigt tekniskt problem med modern RDMA i stor skala

02:28PM EST – Och det är nätverkspanelen

02:28PM EST – Nu vidare till högpresterande datoranvändning (HPC)

02:29PM EST – Sammanfattning av AMDs erfarenhet så här långt, inklusive den senaste MI250X

02:29PM EST – MI250X + EPYC hade ett sammanhängande minnesutrymme, men fortfarande GPU och CPU separerade av en något långsam länk

02:29PM EST – Men nu är MI300A här med ett enhetligt minnessystem

02:29 EST – Volymproduktion började tidigare detta kvartal

14:30 EST – MI300-arkitektur, men med 3 Zen 4 CCD:er skiktade ovanpå några av IOD:erna

14:31 EST – 128 GB HBM3-minne, 4 IOD, 6 XCD, 3 CCD

02:31PM EST – Och verkligt enhetligt minne, eftersom både GPU- och CPU-plattor går igenom de delade IOD:erna

02:32PM EST – Prestandajämförelser med H100

02:32 EST – 1,8x prestanda för FP64 och FP32 (vektor?)

02:33PM EST – 4x uppträdande på OpenFOAM med MI300A kontra H100

02:33PM EST – De flesta av förbättringarna kommer från ett enhetligt minne, och slipper kopiera runt minnet innan det kan användas

02:34PM EST – 2 gånger perf-per-watt än Grace Hopper (oklart med vilket mått)

02:35 EST – MI300A kommer att finnas i superdatorn El Capitan. Över 2 EFLOPS FP64-beräkning

02:35PM EST – Nu rullar en video från HPE och Lawrence Livermore National Lab

02:35PM EST – “El Capitan kommer att vara den mest kapabla AI-maskinen”

02:36PM EST – El Capitan kommer att vara 16 gånger snabbare än LLNL:s nuvarande superdator

02:37PM EST – Och nu en annan gäst på scenen: HPE

14:37 EST – Trish Damkroger, SVP och Chief Product Officer

02:38PM EST – Frontier var fantastiskt. El Capitan kommer att bli ännu bättre

02:39PM EST – AMD och HPE driver ett stort antal av de mest energieffektiva superdatorerna

02:40 EST – (Stackars Forrest är lite knuten)

02:40 EST – ElCap kommer att ha MI300A-noder med SlingShot-tyg

02:41PM EST – Ett av de mest kapabla AI-systemen i världen

02:41PM EST – Supercomputing är grunden som behövs för att köra AI

02:42PM EST – Och det är HPE

02:43PM EST – MI300A: En ny nivå av högpresterande ledarskap

14:43 EST – MI300A-system är snart tillgängliga från partners runt om i världen

02:43PM EST – (Så det låter som att MI300A släpar efter MI300X lite)

14:43 EST – Nu tillbaka till Lisa

02:44PM EST – För att avsluta dagen: Avancerade AI-datorer

02:44PM EST – AMD började inkludera NPU:er i år med Ryzen Mobile 7000-serien. Det första x86-företaget att göra det

02:44PM EST – Använder AMD:s XDNA-arkitektur

02:45PM EST – En stor datormatris som är extremt presterande och effektiv

02:45PM EST – Skickade miljontals NPU-aktiverade datorer i år

02:46PM EST – Visar upp några av mjukvaruapplikationerna där ute som erbjuder AI-acceleration

02:46PM EST – Adobe, Windows studioeffekter, etc

02:46PM EST – Tillkännager Ryzen AI 1.0-programvara för utvecklare

02:46 EST – Så AMD:s mjukvaru-SDK är äntligen tillgänglig

02:47 EST – Distribuera bevarade och kvantiserade modeller med ONNX

02:47PM EST – Tillkännage Ryzen Mobile 8040-seriens processorer

14:47 EST – Hawk Point

02:47 EST – Det här är (fortfarande) Phoenix-döden

02:48PM EST – Med en rynka: snabbare AI-prestanda tack vare en högre klockad NPU

02:48PM EST – AMD:s egna prestandariktmärken visar 1,4x över 7040-serien

02:48PM EST – Nu är det dags för en annan gäst: Microsoft

02:49PM EST – Pavan Davuluri, CVP för Windows och enheter

02:49 EST – Pratar om arbetet AMD och MS gör tillsammans för klient AI

14:50 EST – Microsofts tältprojekt är Copilot

02:52 EST – MS vill kunna load-shift mellan molnet och klienten. Sömlös datoranvändning mellan de två

02:52PM EST – Visar AMD:s NPU-färdplan

02:53PM EST – Nästa generations Strix Point-processorer på gång. Använder en ny NPU baserad på XDNA 2

02:53PM EST – Lanseras 2024

02:53PM EST – XDNA 2 designad för “ledarskap” AI-prestanda

02:53PM EST – AMD har kisel. Det gör MS också

02:54PM EST – Mer än 3 gånger genAI-perf (mot Hawk Point?)

02:55PM EST – Och det är AI på datorn

02:55PM EST – Nu sammanfattar dagens meddelanden

14:55 EST – MI300X, frakt idag. MI300A, i volymproduktion

14:55 EST – Ryzen Mobile 8040-serien, skickas nu

02:56PM EST – “Idag är ett otroligt stolt ögonblick för AMD”

02:57PM EST – Och det var allt för Lisa, och för dagens presentation

02:58PM EST – Tack för att du gick med oss, och se till att kolla in vår utökade täckning av AMD:s tillkännagivanden

02:58PM EST – https://www.anandtech.com/show/21177/amd-unveils-ryzen-8040-mobile-series-apus-hawk-point-with-zen-4-and-ryzen-ai

02:58PM EST – https://www.anandtech.com/show/21178/amd-widens-availability-of-ryzen-ai-software-for-developers-xdna-2-coming-with-strix-point-in -2024