02:14 PM EDT – Av för att se mer av showen
02:14 PM EDT – Och det är en wrap
02:13 PM EDT – Recapping: SDK:er, IRAY VR, Tesla P100, DGX-1 och autonoma bilar
02:12 EDT – Del av säsongen 2016/2017 Formel E
02:12 EDT – Wil; delta i Roborace. Alla bilar är PX2-drivna
02:12 EDT – Autonom racerbil. 2200 pund
14:10 EDT – Demonstrerar DAVENET AI-drivmjukvaran i aktion
14:10 EDT – Cue “Knight Rider”-tema
14:09 EDT – Det tog BB8 lite tid att bli halvvägs hyfsad på att köra
02:08 PM EDT – Rulla video
14:08 EDT – Så vi ska se BB-8 lära sig att köra
02:08 PM EDT – “Namn på bilen” till och med
14:08 EDT – “Vi har arbetat med ett projekt som är riktigt roligt. Namnet på kortet är BB-8”
14:05 EDT – PX2 i bilen, DGX-1 i molnet
02:05 PM EDT – (Jen-Hsun är förberedd för zoombilder denna gång)
02:04 PM EDT – Drive PX2 använder två oanmälda Pascal GPU:er
14:04 EDT – Kör PX2 i Jen-Hsuns händer
14:04 EDT – Baidu, till och med
02:03 PM EDT – Baisu arbetar också på en NVIDIA-driven självkörande bildator
02:02 EDT – Demo av DriveNet som körs med 180 fps körs på den minsta Drive PX
01:58 PM EDT – Recapping Drive PX
13:57 EDT – Uppe nu: bilar
13:57 EDT – Djup inlärning överallt
13:56 EDT – Sammanfattning: Tesla M40 för hyperskala, K80 för HPC med flera appar, P100 för mycket höga skalor och DGX-1 för tidiga användare
13:54 EDT – De första DGX-1:orna kommer att åka till forskningsuniversitet
13:54 EDT – NVIDIA tar emot beställningar från och med idag
13:53 EDT – DGX-1: 129 000 USD
13:50 EDT – NVIDIA har anpassat TensorFlow för VGX-1
13:47 EDT – Nu på scen: Raja Monga från Googles TensorFlow-team
13:47 EDT – Fler exempel på AI/neurala nätverk kommer
01:41 PM EDT – Baidu använder återkommande neurala nätverk snarare än konvolutionerande
13:40 EDT – Nu på scen: Brian från Catanzaro från Baidu
13:38 EDT – 1,33B bilder per dag
01:38 PM EDT – “Vi uppnådde en 12x snabbare år för år” inom djupinlärning
13:37 EDT – “Datacenter i en låda”
13:37 EDT – Diskutera utmaningarna med att skala ut antalet noder i många algoritmer
01:35 PM EDT – Två Xeoner och 7 TB i SSD-kapacitet
13:35 EDT – Quad Infiniband, Dual 10GBe
01:34 EDT – 170TF FP16 i en låda. 8 P100 i ett hybrid kubnät
01:34 PM EDT – En rackmonterad server för full djupinlärning
01:34 EDT – NVIDIA DGX-1
01:33 PM EDT – Men om det är 600 mm2 för bara stansen, är det ett stort hopp i storleken på stansar som produceras på 16nm/14nm TSMC/Samsung FinFET
01:33 PM EDT – Behöver få bekräftelse på om 600mm2 bara är GPU-matrisen, eller om de räknar andra delar också
13:32 EDT – “Vi skickar det… snart”
01:32 EDT – P100-servrar kommer i Q’17
13:31 EDT – P100 i volymproduktion idag
01:30 EDT – NV ville ha nya algoritmer för att dra nytta av hårdvaran
01:29 EDT – Återkapning av NVLink. 5x den sammanlagda hastigheten för PCIe 3.0
01:29 PM EDT – “TSMC CoWoS® (Chip-On-Wafer-On-Substrate)-tjänster använder Through Silicon Via (TSV)-teknik för att integrera flera kretsar i en enda enhet. Denna arkitektur ger sammankopplingar med högre täthet, minskar den globala sammankopplingslängden, och lättar associerad RC-belastning vilket resulterar i förbättrad prestanda och minskad strömförbrukning på en mindre formfaktor.”
13:28 EDT – Chip on Wafer on Substrate, det största chipet som någonsin gjorts
01:28 EDT – Eh, 600mm^2 !!!!
01:27 EDT – 500mm^2 !!!
13:27 EDT – Jen-Hsun är “väldigt glad” över det
13:27 EDT – Förköp
01:27 EDT – Pascal, 16nm FinFET, Chip-On-Wafer-On-Substrate, NVLink och nya AI-algoritmer
01:26 PM EDT – Tesla P100 är “5 mirakel”
01:26 PM EDT – (150B transistorer räknar utan tvekan RAM, BTW)
01:26 PM EDT – Detta använder den tidigare tillkännagivna mezzaninkontakten med minne i paketet
13:25 EDT – (14 MB är enormt för en registerfil, förresten. Det är mycket mycket snabbt minne)
01:24 EDT – 5.3TF FP64, 10.6TF FP32, 21.2TF FP16, 14MB SM Register File, 4MB L2 Cache
13:24 EDT – 150B transistorer
01:23 PM EDT – “Det mest ambitiösa projektet vi någonsin har genomfört”
13:23 EDT – Tesla P100
13:23 EDT – writeln (‘Hej världen.’)
13:23 EDT – Pascal-tid!
01:22 PM EDT – AI behöver mer datorkraft än vad som är tillgängligt för närvarande
01:22 PM EDT – “Vi har helt enkelt inte tillräckligt med datorhästkrafter”
13:18 EDT – Lär AI att rita landskap inspirerade av dessa bilder
13:18 EDT – Träna den med bilder från den romantiska eran
13:17 EDT – Lär ett neuralt nätverk att måla
13:17 EDT – Demotid: Facebook AI Research
13:16 EDT – Jen-Hsun vill gå från övervakat, arbetsintensivt lärande till oövervakat lärande
13:14 EDT – GIE: 20 bilder/s/V på Tesla M4
01:14 PM EDT – “Det finns ingen anledning att använda FPGA. Det finns ingen anledning att designa dedikerade chips”
01:13 PM EDT – (Maxwell-drivna Tesla-kort: http://www.anandtech.com/show/9776/nvidia-announces-tesla-m40-m4-server-cards-data-center-machine-learning )
01:13 PM EDT – Sammanfattning av Tesla M40 och M4
01:13 PM EDT – Hyperscale är NVIDIAs snabbast växande marknad
13:11 EDT – Att uppnå supermänskliga resultat utan att supermänniskor programmerar dem
01:10 PM EDT – Sidanteckning: bitar av detta påminner mig om den hårda AI-eran på 80-talet, då sann AI vid ett tillfälle troddes vara precis runt hörnet
01:10 PM EDT – Pratar om hur allt bredare företag doppar tårna i AI och djupinlärning
01:08 PM EDT – “Framtidens molnplattformar kommer att drivas av AI”
13:06 EDT – Jen-Hsun sammanfattar områden där djupinlärning i slutändan har kommit fram till bättre algoritmer än mänskligt skapade program
13:03 EDT – “Djupt lärande är en stor sak”
13:03 EDT – “Du har hört mig prata om djupinlärning under de senaste fem åren”
12:59 PM EDT – Djup inlärning är nyckeln
12:57 EDT – Microsoft ImageNet har kunnat slå en människa vid bildigenkänning
12:57 PM EDT – Detta år kommer att markera ett stort år inom AI
12:55 EDT – Nästa: AI
12:54 PM EDT – Inte lika kapabel som Iray VR, men den kan hantera en enda fotosfär
12:54 PM EDT – Tillkännager också Iray VR Lite
12:53 PM EDT – Jen-Hsun vill komma till den punkt där han kan gå ur sin bil på kontoret och den kommer att parkera sig själv under jorden
12:51 PM EDT – (Detta är på en HTC Vive, för alla som håller koll)
12:51 PM EDT – Iray VR-rendering av insidan av NVIDIAs nya, under konstruktion högkvarter
12:49 EDT – Använda sonder för att markera fasta platser. Varje sond tar 1 timme på en Quadro-installation med 8 GPU
12:48 PM EDT – Raytracing-rendering för VR-applikationer
12:48 PM EDT – Nu tillkännager Iray VR
12:48 EDT – Mars-demon kördes på en Titan, men Jen-Hsun tror att det inte räcker. Behöver mer prestanda för att bättre fysiskt simulera ljus
12:46 EDT – Leverantörer har drivit VR som en upplevelse, och det här är en sådan idé
12:45 EDT – Geeks on Mars
12:44 EDT – Woz är den första personen som provar Mars 2030 i VR
12:43 EDT – Woz skulle seriöst gå om det var möjligt
12:42 EDT – Jen-Hsun vill göra Woz till den första personen på Mars
12:41 EDT – Steve Wozniak har ringt in
12:40 EDT – Demoing Mars 2030 live (men inte i VR)
12:37 EDT – Även i VR-turnén, Mars 2030, en 8 km^2 rekonstruktion av Mars yta
12:35 PM EDT – Rulla video
12:34 EDT – Everest VR kommer att demonstreras i showens VR-område
12:33 PM EDT – Hur kommer VR att förvandla kommunikation, design och mer?
12:32 PM EDT – Videospel är en mycket tydlig användning av VR. Men hur är det med andra områden?
12:31 PM EDT – “En helt ny datorplattform”
12:31 EDT – Nästa: VR
12:30 EDT – TX1 kan bearbeta 24 bilder per sekund per Watt
12:29 EDT – GIE är specifikt för slutledning, i motsats till träning på cuDNN
12:29 PM EDT – NVIDIA vill öka den övergripande bildbehandlingskapaciteten och energieffektiviteten
12:28 EDT – Ny plattform: GIE, GPU Inference Engine
12:27 EDT – Äntligen, Jetpack: Jetson/Tegra X1 mjukvaruekosystem
12:27 EDT – Nära partners (JPL-partners) har tidig tillgång till de aktuella testversionerna
12:26 EDT – Allmän release under Q1’17
12:26 EDT – DriveWorks: SensorFusion, datorseende/detektion
12:25 PM EDT – VRWorks: VR SLI, Context Priority, Multi-Res Shading
12:24 EDT – CUDA 8 bekräftade att stödja Pascal
12:23 EDT – Om CUDA 8 kommer i juni är det rimligt att vi kan se Pascal runt den tiden i någon form
12:22 EDT – CUDA 8 tillgänglig i juni
12:22 EDT – ComputeWorks: cuDNN, nvGRAPH, IndeX
12:20 EDT – DesignWorks: MDL-bibliotek, Optix, etc
12:19 PM EDT – Sammanfattning av de senaste GameWorks-funktionerna som voxelaccelererad omgivande ocklusion
12:18 PM EDT – Detta verkar vara en buntning av de olika NVIDIA SDK:erna, inklusive GameWorks, DriveWorks och VRWorks
12:17 EDT – Först ut: tillkännage NVIDIA SDK
12:17 EDT – Jen-Hsun kommer att prata om 5 saker: verktygslåda, djupinlärningschip, mjukvara för djupinlärning, VR och mer
12:15 EDT – Över 300 000 registrerade CUDA-utvecklare
12:15 PM EDT – Detta trots att de nu har flera GTC över hela världen
12:15 PM EDT – GTC blir större än någonsin. Dubbelt så stor som GTC 2012
12:13 EDT – Diskuterar att de gör allt detta för “dig”, publiken och dess stora datorbehov
12:12 EDT – Jen-Hsun står nu på scenen
12:11 PM EDT – Självkörande bilar, Go och mer
12:11 PM EDT – Videotemat: AI
12:09 EDT – Rulla video
12:09 EDT – Ljuset dämpas. Det är showtime
12:07 EDT – Keynote-salen är i full kapacitet, så det är fullt hus denna morgon
12:07 EDT – Alla uppmanas att ta plats
12:05 PM EDT – Samtidigt har jag inte sett några tecken på en bil än, men det skulle vara typiskt för Jen-Hsun att arbeta in en bil i sin presentation på något sätt
12:04 EDT – NVIDIA är verkligen några minuter försenad; det låter som att vi kan börja 9:10 eller så
12:04 PM EDT – WiFi är lite finnicky, men förhoppningsvis kommer vi att vara okej
12:00 EDT – Under tiden diskuterar någon bakom mig vädret. Igår var det på 70-talet; i morgon är det på 90-talet. Svaret från personen bredvid dem: pojke, de där GPU:erna är verkligen heta!
11:59 EDT – OpenPOWER-partners kommer att hålla en keynote i morgon för att diskutera de senaste framstegen inom den plattformen. För NVIDIA är det en stor sak eftersom OpenPOWER tidigare konfigurerades för att stödja NVLink mellan CPU och GPU:er
11:58 EDT – Till en sidoanteckning: som också äger rum i San Jose på kongresscentret är show-within-a-show OpenPOWER-konferensen
11:57 EDT – Vi kan kanske se några konsumentnyheter också, men det är ett stort om vid denna tidpunkt
11:57 EDT – Vissa nyheter om provisualisering (Quadro) är också troliga, med tanke på utställarnas stora fokus på VR här
11:57 EDT – Som ett minimum förväntar jag mig Tesla/HPC-nyheter på denna front, eftersom detta är vad NVIDIA har fokuserat på tidigare, och HPC-marknaden är inte lika timingkänslig
11:56 EDT – Den stora nyheten i år kommer givetvis att vara NVIDIAs Pascal-arkitektur, som är planerad att lanseras i år
11:56 EDT – Keynoten är planerad att börja kl. 09:00 PT, men jag misstänker att vi kommer att vara några minuter försenade
11:53 AM EDT – Kickar igång som alltid är NVIDIA keynote, presenterad av VD Jen-Hsun Huang
11:52 EDT – Vi är här i soliga San Jose för 2016 års upplaga av NVIDIAs årliga GPU Technology Conference (GTC)