04:24 EDT – Jag är här på det första GTC Europe-evenemanget, redo att gå för Keynote-föreläsningen som värd för VD Jen-Hsun Huang.
04:25 EDT – Detta är en satellithändelse till huvud GTC i San Francisco. Som jämförelse har huvud GTC 5000 deltagare, denna har 1600-ish
04:25 EDT – Det här är i grunden GTC on the road – de gör 5 eller 6 av dessa satellitevenemang runt om i världen efter huvud GTC
04:27 EDT – Vi börjar snart
04:29 EDT – Öppningsvideo
04:30 AM EDT – “Deep Learning hjälper bönder att analysera grödor på dagar som brukade ta år”
04:30 AM EDT – “Använder AI för att leverera lättnad under svåra förhållanden” (drönare)
04:30 AM EDT – “Använder AI för att sortera skräp”
04:30 AM EDT – Omnämnande av AlphaGO
04:31 EDT – JSH till scenen
04:32 EDT – ‘GPU:er kan göra vad normal datoranvändning inte kan’
04:32 EDT – “Vi är i början av något viktigt, den fjärde industriella revolutionen”
04:33 AM EDT – “Flera saker på en gång samlades för att göra PC-eran till något speciellt”
04:33 AM EDT – “2006 hände mobilrevolutionen och Amazon AWS”
04:33 AM EDT – “Vi kan lägga högpresterande datorteknik i händerna på 3 miljarder människor”
04:34 EDT – “10 år senare har vi AI-revolutionen”
04:34 AM EDT – ‘Nu har vi mjukvara som skriver mjukvara. Maskiner lär sig. Och snart kommer maskiner att bygga maskiner.’
04:35 AM EDT – “I varje era av datorer uppstod en ny datorplattform”
04:35 EDT – ‘Windows, ARM, Android’
04:35 AM EDT – “En helt ny typ av processor behövs för denna revolution – det hände 2012 med Titan X”
04:37 EDT – “Deep Learning var på gång, och förmågan att generalisera inlärning var en fantastisk sak, men det hade ett handikapp”
04:37 AM EDT – “Det krävdes en stor mängd data för att skriva sin egen programvara, vilket är beräkningsmässigt ansträngande”
04:38 EDT – “Handikappet varade i två decennier”
04:38 AM EDT – ‘Deep Neural Nets utvecklades sedan på GPU:er för att lösa detta’
04:39 EDT – ‘ImageNet Classification with Deep Convolutional Neural Networks’ av Alex Krizhevsky vid University of Toronto
04:40 EDT – ‘Det neurala nätverket från den tidningen, ‘AlexNet’ slog erfarna Computer Vision-veteraner med handjusterade algoritmer på ImageNet’
04:40 EDT – “En av de mest spännande händelserna inom datoranvändning under de senaste 25 åren”
04:41 EDT – “Nu går det inte en vecka när ett nytt genombrott eller milstolpe uppnås”
04:42 EDT – “t.ex. 2015 där Deep Learning slog människor på ImageNet, 2016 där taligenkänning når under 3 % i samtalstal”
04:43 EDT – “När vi växer blir beräkningskomplexiteten i dessa nätverk ännu större”
04:44 EDT – “Nu kan Deep Learning slå människor vid bildigenkänning – det har uppnått “Super Human”-nivåer”
04:44 EDT – “En av de stora utmaningarna är autonoma fordon”
04:44 EDT – “Traditionella CV-metoder skulle aldrig fungera för bil”
04:45 AM EDT – “Taligenkänning är ett av de mest undersökta områdena inom AI”
04:45 EDT – ‘Tal kommer inte bara att förändra hur vi interagerar med datorer, utan vad datorer kan göra’
04:47 EDT – Korrigering, Microsoft nådde 6,3 % felfrekvens vid taligenkänning
04:47 EDT – “Det engelska språket är ganska svårt för datorer att förstå, särskilt i en bullrig miljö”
04:48 EDT – “Påminnelse, människor uppnår inte 0 % felfrekvens”
04:48 EDT – “Dessa tre prestationer är fantastiska: vi har nu förmågan att simulera mänskliga hjärnor: inlärning, syn och ljud”
04:49 EDT – “Förmågan att uppfatta och förmågan att lära sig är grunderna för AI – vi har nu de tre pelarna för att lösa storskaliga AI-problem”
04:49 EDT – ‘NVIDIA uppfann GPU, och för 10 år sedan uppfann vi GPU-datorer’
04:50 AM EDT – “Nästan alla nya högpresterande datorer är accelererade, och NVIDIA finns i 70 % av dem”
04:50 AM EDT – “Virtual Reality är i huvudsak att beräkna mänsklig fantasi”
04:51 EDT – “Vissa människor har kallat NVIDIA för AI Computing Company”
04:51 EDT – JSH: “Vi är fortfarande det roliga datorföretaget som löser problem och det mesta av arbetet vi gör är spännande för framtiden”
04:52 AM EDT – ‘Sammanslagningssimulering, VR, AR och drivs av AI, och scener som Tony Stark i Iron Man fångar vad NVIDIA är ute efter’
04:53 AM EDT – GTC 2014 till 2016: 4x deltagare, 3x GPU-utvecklare, 25x deep learning devs, flyttar från 2 event/år till 7 event/år över hela världen
04:54 EDT – Siffrorna för GPU-utvecklare och Deep Learning-utvecklare är “branschmått”, inte GTC-deltagare
04:55 EDT – “Jag vill att utvecklarna ska tänka på Eiffeltornet – en ikonisk bild i Europa”
04:56 EDT – “Hjärnan föreställer sig vanligtvis en bild av tornet – din hjärna gjorde grafiken”
04:56 AM EDT – “Hjärnan tänker som en GPU, och GPU:n är som en hjärna”
04:57 EDT – “Datorindustrin har investerat biljoner dollar i detta”
04:57 AM EDT – ‘Den största superdatorn har 16-18000 NVIDIA Tesla GPU:er, över 25m CUDA-kärnor’
04:58 AM EDT – “GPU:er är i framkant av detta”
04:58 AM EDT – “GPU Deep Learning är faktiskt en ny modell”
04:59 AM EDT – “Tidigare skrev mjukvaruingenjörer programvaran, QA-ingenjörer testar den och i produktion gör mjukvaran vad vi förväntar oss”
04:59 AM EDT – “GPU Deep Learning är lite annorlunda”
04:59 EDT – “Lärande är viktigt – ett djupt neuralt nät måste samla in data och lära av det”
05:00 AM EDT – “Detta är den beräkningsintensiva delen av Deep Learning”
05:00 EDT – “Då drar enheterna slutsatsen, med hjälp av det genererade neurala nätet”
05:00 AM EDT – “GPU:er har möjliggjort större och djupare neurala nätverk som är bättre tränade på kortare tid”
05:01 AM EDT – “Ett modernt neuralt nätverk har hundratals dolda lager och lär sig en hierarki av funktioner”
05:01 EDT – ‘Vår hjärna har förmågan att göra det. Nu kan vi göra det i datorsammanhang’
05:02 AM EDT – “Det tränade nätverket placeras i datacenter för molninferencing med stora bibliotek för att svara på frågor från sin databas”
05:02 EDT – ‘Det här kommer att bli stort i framtiden. Varje fråga i framtiden kommer att dirigeras genom ett AI-nätverk.
05:03 AM EDT – “GPU-inferencing gör svarstiderna mycket snabbare”
05:03 AM EDT – “Detta är området för den intelligenta enheten”
05:04 EDT – “Detta är tekniken för IoT”
05:04 AM EDT – “AI är jämförelsevis liten kodning med massor av beräkningar”
05:05 AM EDT – “Den viktiga faktorn med neurala nät är att de fungerar bättre med större datamängder och mer beräkning”
05:05 EDT – “Det handlar om nätverk av högre kvalitet”
05:05 EDT – 2012 AlexNet var 8-lagers, 1,4 GFlops, 16 % fel
05:06 EDT – 2015 ResNet är 152 lager, 22,6 GFlops för 3,5 % fel
05:06 AM EDT – 2016 års vinnare har förbättrat detta med ett nätverk 4x djupare
05:06 EDT – Baidu 2015, med 12 000 timmars data och 465 GFLOP:er kan göra 5 % taligenkänningsfel
05:07 AM EDT – “Detta kräver att ett företag driver hårdvaruutveckling i en snabbare takt än Moores lag”
05:07 EDT – “Så NVIDIA tänkte, varför inte vi”
05:08 EDT – ‘Jag vill ägna mina kommande 40 år åt denna strävan’
05:08 EDT – “Förändringshastigheten för djupinlärning måste växa, inte minska”
05:09 EDT – “Den första kunden till Pascal är ett öppet labb som heter OpenAI, och deras uppdrag är att demokratisera AI-området”
05:10 AM EDT – “Vår plattform är så tillgänglig – från en speldator till molnet, superdatorn eller DGX-1”
05:11 AM EDT – “Du kan köpa det, hyra det, var som helst i världen – om du är en AI-forskare är det här din plattform”
05:11 EDT – “Vi kan inte sakta ner mot Moores lag, vi måste överbelasta den”
05:12 EDT – “Vi har också partners, som IBM med kognitiva datortjänster”
05:13 AM EDT – “Vi arbetade med IBM för att utveckla NVLink för att para ihop POWER8 med NVIDIA P100 GPU för att få ett nätverk av snabba processorer och snabba GPU:er, dedikerade för att lösa AI-problem”
05:13 AM EDT – “Idag tillkännager vi en ny partner”
05:13 AM EDT – “Att tillämpa AI för andra företag över hela världen”
05:14 EDT – Ny partner är SAP
05:14 AM EDT – “Vi vill föra AI till företag runt om i världen som ett av de största AI-hårdvaru-/mjukvarusamarbetena”
05:14 AM EDT – “Vi vill att SAP ska kunna ladda sina kunder turbo med Deep Learning”
05:15 EDT – “Forskningsbudgeten för DGX-1 var 2 miljarder USD, med 10 000 ingenjörsår av arbete”
05:15 EDT – ‘DGX-1 är nu till försäljning. Det är i händerna på massor av forskarteam med stor effekt.
05:17 EDT – “Vi tillkännager två utsedda forskningscentra för AI-forskning i Europa – ett i Tyskland, ett i Schweiz, med tillgång till DGX-1-hårdvara”
05:17 EDT – Nu datacenter slutledning
05:18AM EDT – “Efter månaderna och månaderna av träning av de största nätverken, när nätverket är komplett, kräver det ett hyperskala datacenter”
05:18 AM EDT – “Marknaden går in i 10-tals miljoner hyperskaliga servrar”
05:18 AM EDT – “Med rätt slutlednings-GPU kan vi tillhandahålla omedelbara lösningar när miljarder frågor appliceras på en gång”
05:19 AM EDT – ‘NVIDIA kan tillåta datacenter att stödja en faktor miljon mer belastning utan ballongkostnader eller ström en miljon gånger’
05:20 AM EDT – ‘NVIDIA lanserade nyligen Tesla P4 och P40 slutledningsacceleratorer’
05:20 AM EDT – “Du kan ersätta 3-4 rack med en GPU”
05:21 EDT – Här är länken till vår beskrivning av P4/P40-nyheterna: http://www.anandtech.com/show/10675/nvidia-announces-tesla-p40-tesla-p4
05:21 EDT – P4 vid 50W, P40 vid 250W, med Pascal och med INT8
05:22 EDT – Tillkännager TensorRT
05:22AM EDT – “Mjukvarupaket som kompilerar, kombinerar operationer och autotuning, optimerar koden till GPU:n för effektivitet”
05:22 AM EDT – ‘Stöd ett antal nätverk idag, planerar att stödja alla större nätverk i tid’
05:23 AM EDT – “Livevideo är det allt mer delade innehållet av betydelse”
05:24 AM EDT – ‘Det skulle vara trevligt om, när du laddar upp livevideon, det skulle identifiera vilka av dina tittare/familj som skulle vara intresserade’
05:24 EDT – “AI borde kunna göra det här”
05:24 EDT – Exempel på scenen med 90 streams på 720p30 som körs samtidigt
05:25 EDT – En människa kan göra detta relativt enkelt, men lite långsamt
05:25 EDT – “En dator kan lära sig av videorna vad som händer och tilldela relevanta taggar”
05:26AM EDT – “Framtiden behöver möjligheten att filtrera baserat på taggar som genereras från AI-livevideo när den genereras”
05:28 EDT – “Vi tränade ett nätverk för att bestämma stilen på olika målningar och måla om den i en annan stil”
05:29 EDT – “Vi vill kunna göra det live”
05:29 EDT – ritar om varje enskild bildruta
05:30 AM EDT – “Det neurala nätverket genererar ny konst”
05:30 EDT – “bildruta för bildruta”
05:31 AM EDT – “Ansökningar för djupinlärning är helt klart mycket breda”
05:32 EDT – “Idag används 2000 aktiva implementeringar av djupinlärning för kunder”
05:33 AM EDT – ‘Partners är redo att konfigurera servrar med Deep Learning inbäddad’
05:35 EDT – “ODM och serverbyggare kan konfigurera ett Deep Learning-system för alla kunder”
05:36 AM EDT – Deep Learning för reklam är intressant. “Lägga till annonser i livevideo baserat på tittarnas preferenser”
05:37 EDT – “AI-startups eller startups som använder djupinlärning finns överallt, inom många olika områden”
05:38 AM EDT – ‘Benevolent.ai är den första Europakunden till DGX-1’
05:38 AM EDT – “De kan ta det som brukade ta ett år, och nu slutföra det på en vecka eller två”
05:40 EDT – “alla ansikten är inte rakt in i kameran, så AI kan se om saker och ting har förändrats (hår, ålder, känslor)”
05:40 EDT – “Djup inlärning kan användas för intelligent röst, för att upptäcka om någon ljuger på ett försäkringskrav eller liknande”
05:40 EDT – “Deep Learning kan upptäcka plast i avfall som är lämplig för återvinning”
05:41 EDT – Nu slutledning för enheter
05:41 EDT – “Intelligenta enheter, eller vad folk kallar IoT”
05:42 EDT – “Bara vår fantasi begränsar vad enheterna är”
05:42 EDT – >Detta är det vanliga för företag som fokuserar på AI-hårdvara – lämna problemet med “killer device” till andra och tillhandahåll bara hårdvaran under utvecklingen.
05:43 AM EDT – “Internetanslutna, intelligenta maskiner, som har förmågan till AI, är framtiden”
05:44 EDT – Omnämner Jetson TX1, >20 bilder/sek/W i en 10W-plattform (justera efter behov)
05:45 EDT – “Vi startar ett institut för att tillämpa djupinlärning – NVIDIA Deep Learning Institute”
05:45 EDT – “NVIDIA DLI-ställen säljer alltid slut, så vi utökar räckvidden”
05:46 AM EDT – “AI Transportation är en bransch på $10T: säkerhet, tillgänglighet och användarvänlighet”
05:46 EDT – “Autonoma fordon handlar inte bara om smarta sensorer – det är ett datorproblem”
05:48 AM EDT – “AI Auto måste uppfatta, resonera, förstå, planera och tillämpa”
05:49 EDT – ‘NVIDIA har hoppat in med båda fötterna för att skapa en skalbar plattform för bilindustrin’
05:49 AM EDT – “Skalbarhet betyder att olika segment av branschen har olika visioner för autonoma fordon”
05:50 AM EDT – Kryssningshårdvara vs. bilchaufför vs full autonomi
05:51 EDT – >Jag hade bara en tanke, det skulle vara intressant om vad taxichaufförer tycker om detta. Om folk bara kan säga “ta mig hem”…
05:51AM EDT – ‘Drive PX 2 är perception, resonemang, körning, AI-bearbetning, algoritmer och mjukvara med skalbarhet’
05:52 EDT – “När vi först visade upp PX2 var det den stora fullfettsversionen eftersom det var vad de stora kunderna ville ha”
05:53 AM EDT – ‘Drive PX 2 Auto Cruise ansluts till två kameror och identifierar en HD-karta, vid 10W’
05:54 EDT – “Det är en HD-karta hela vägen till molnet och superdatorn”
05:54 EDT – “Baidu valde Drive PX 2 för sina självkörande bilar – DriveWorks är ansluten till molnet”
05:55 AM EDT – ‘NVIDIA tillkännager ett partnerskap med TomTom som kartläggningspartner’
05:56 EDT – ‘Tesla för moln HD-kartbehandling, Drive PX 2 för bearbetning i bilen, öppen moln-till-bil-plattform med AI’
05:56 AM EDT – “Måste vara exakt, sammanhängande och korrekt inom några få centimeter”
05:56 AM EDT – “Vi vill kontinuerligt cruncha data allteftersom det registreras”
05:57 EDT – Alain De Taeye från TomTom på scenen
05:58 EDT – “Vi har kartlagt 70 % av samhället, 47 miljoner miles”
05:59 EDT – “vi har grundläggande information, men vi måste göra korrekta HD-kartor på ett överkomligt sätt”
06:00 EDT – “TomTom får 7 miljarder spår om dagen som kan bearbetas”
06:00 EDT – “Vi är 120 000 miles in i utmaningen på 60 miljoner mil för HD-kartor”
06:01 AM EDT – “Vi måste bearbeta video från bilarna i superrealtid med hjälp av AI”
06:01 EDT – “Att använda bilen för att underhålla HD-kartan är den heliga graalen”
06:01 EDT – “Självkörande bilar kräver en korrekt HD-karta”
06:02 EDT – Tillkännager Driveworks Alpha 1, ett operativsystem för självkörande bilar
06:03 AM EDT – “det ultimata superdatorproblemet i realtid”
06:03 EDT – ”Jag försökte’ är inte ett acceptabelt svar för självkörande bilar’
06:04 AM EDT – “OSet använder tre neurala nätverk för olika saker”
06:05 EDT – DriveNet, OpenRoadNet och PilotNet
06:06 EDT – >Hade bara en tanke. HD-kartor innebär att identifiera enskilda träd och triangulera position på en väg för självkörning baserat på ett internt schema, och uppdatera det om det är väder etc. Det är viktigt
06:06 EDT – “Köra bil är ett beteende, som att spela tennis, det är något automatiskt och av reflex”
06:07 EDT – “PilotNet är ett beteendenätverk”
06:08 AM EDT – ‘Beläggningsnätet testas mot vad PilotNet vill göra, baserat på allt det har lärts ut och även framtida förutsägelser’
06:08 EDT – “Vi måste kontinuerligt testa vad vi ser med vad bilen ser och hur AI-bilen reagerar”
06:09 EDT – Videor som visar ett par demos
06:09 AM EDT – Upptäcker objekt på en frontvänd fordonskamera
06:10 EDT – “Var andra bilar är, var körfälten är, var det är säkert att köra – allt görs via neural nätverksinferencing”
06:10 EDT – “Var är det ok att köra är viktigare än var du behöver köra – det håller det säkert”
06:12 AM EDT – ‘Beläggningsrutnätet kombinerar sensordata och HD-kartor för att generera sin egen 3D-karta över var fordonet är’
06:13 AM EDT – “Koffein är bränslet för ingenjörer för djupinlärning”
06:15 EDT – “När vi kör gör vi inte kalkyler, men AI måste”
06:16 AM EDT – ‘NVIDIA BB8 är en bil utan några förkunskaper, idén att imitera föraren’
06:17 EDT – “Vi behöver inte beskriva ekvationer, bilen kommer att generalisera körbeteendet genom upprepade provtagningar”
06:18 EDT – “Kommer att lämna vägen för att förbli säker”
06:19 EDT – “BB8 lärde sig att köra som vi”
06:20 AM EDT – Glittrarna är BB8:s neuroner som avfyrar angående information som den tycker är viktig för dess beteende
06:20 EDT – ‘Den lärde sig att hålla sig i mitten av körfältet, mitt på vägen, en väg i mörkret etc’
06:20 EDT – “Det lärde sig att vi inte kör över buskar”
06:21 AM EDT – “Driveworks är en öppen plattform för OEM och bilföretag att välja och vraka de bitar de vill ha/behöver för sina lösningar”
06:22 EDT – ‘dagens tillkännagivande är att Alpha 1 lanseras till toppnivåpartners i oktober med uppdateringar varannan månad’
06:22 AM EDT – ‘NVIDIA har många AI självkörande bilar under utveckling med olika partners’
06:24 EDT – Tillkännage Xavier
06:25 EDT – AI Supercomputer SoC
06:25 AM EDT – 8-kärnig anpassad ARM-processor, 512-kärnig Vota, dubbla 8K-videoprocessorer, ny CV-accelerator
06:25 EDT – 7 miljarder transistorer, 16nm FF+
06:25 EDT – Inga perf-nummer… ?
06:26 EDT – Står det inte Denver-kärnor, så nästa generations Denver med Volta?
06:26 EDT – Sampling av Xavier under fjärde kvartalet 2017
06:27 EDT – Xavier gör 20 TOPS DL, 160 SPECINT i 20W
06:28 EDT – Det är så långt kvar, över 12 månader
06:28 EDT – Så, HotChips 2017 kan visa upp några nya uArch-detaljer, precis som Denver2 i år
06:30 EDT – Ryan tror att 1 TOPS/W kommer att bli ett tufft mål
06:30 AM EDT – Det ser ut som att det är en avslutning för keynoten. Jag tror att det finns några frågor och svar med JHH nu för pressen. Dags att ställa frågor