Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

NVIDIA GTC 2016 Keynote Live Blog

02:14 PM EDT – Av för att se mer av showen

02:14 PM EDT – Och det är en wrap

02:13 PM EDT – Recapping: SDK:er, IRAY VR, Tesla P100, DGX-1 och autonoma bilar

02:12 EDT – Del av säsongen 2016/2017 Formel E

02:12 EDT – Wil; delta i Roborace. Alla bilar är PX2-drivna

02:12 EDT – Autonom racerbil. 2200 pund

14:10 EDT – Demonstrerar DAVENET AI-drivmjukvaran i aktion

14:10 EDT – Cue “Knight Rider”-tema

14:09 EDT – Det tog BB8 lite tid att bli halvvägs hyfsad på att köra

02:08 PM EDT – Rulla video

14:08 EDT – Så vi ska se BB-8 lära sig att köra

02:08 PM EDT – “Namn på bilen” till och med

14:08 EDT – “Vi har arbetat med ett projekt som är riktigt roligt. Namnet på kortet är BB-8”

14:05 EDT – PX2 i bilen, DGX-1 i molnet

02:05 PM EDT – (Jen-Hsun är förberedd för zoombilder denna gång)

02:04 PM EDT – Drive PX2 använder två oanmälda Pascal GPU:er

14:04 EDT – Kör PX2 i Jen-Hsuns händer

14:04 EDT – Baidu, till och med

02:03 PM EDT – Baisu arbetar också på en NVIDIA-driven självkörande bildator

02:02 EDT – Demo av DriveNet som körs med 180 fps körs på den minsta Drive PX

01:58 PM EDT – Recapping Drive PX

13:57 EDT – Uppe nu: bilar

13:57 EDT – Djup inlärning överallt

13:56 EDT – Sammanfattning: Tesla M40 för hyperskala, K80 för HPC med flera appar, P100 för mycket höga skalor och DGX-1 för tidiga användare

13:54 EDT – De första DGX-1:orna kommer att åka till forskningsuniversitet

13:54 EDT – NVIDIA tar emot beställningar från och med idag

13:53 EDT – DGX-1: 129 000 USD

13:50 EDT – NVIDIA har anpassat TensorFlow för VGX-1

13:47 EDT – Nu på scen: Raja Monga från Googles TensorFlow-team

13:47 EDT – Fler exempel på AI/neurala nätverk kommer

01:41 PM EDT – Baidu använder återkommande neurala nätverk snarare än konvolutionerande

13:40 EDT – Nu på scen: Brian från Catanzaro från Baidu

13:38 EDT – 1,33B bilder per dag

01:38 PM EDT – “Vi uppnådde en 12x snabbare år för år” inom djupinlärning

13:37 EDT – “Datacenter i en låda”

13:37 EDT – Diskutera utmaningarna med att skala ut antalet noder i många algoritmer

01:35 PM EDT – Två Xeoner och 7 TB i SSD-kapacitet

13:35 EDT – Quad Infiniband, Dual 10GBe

01:34 EDT – 170TF FP16 i en låda. 8 P100 i ett hybrid kubnät

01:34 PM EDT – En rackmonterad server för full djupinlärning

01:34 EDT – NVIDIA DGX-1

01:33 PM EDT – Men om det är 600 mm2 för bara stansen, är det ett stort hopp i storleken på stansar som produceras på 16nm/14nm TSMC/Samsung FinFET

01:33 PM EDT – Behöver få bekräftelse på om 600mm2 bara är GPU-matrisen, eller om de räknar andra delar också

13:32 EDT – “Vi skickar det… snart”

01:32 EDT – P100-servrar kommer i Q’17

13:31 EDT – P100 i volymproduktion idag

01:30 EDT – NV ville ha nya algoritmer för att dra nytta av hårdvaran

01:29 EDT – Återkapning av NVLink. 5x den sammanlagda hastigheten för PCIe 3.0

01:29 PM EDT – “TSMC CoWoS® (Chip-On-Wafer-On-Substrate)-tjänster använder Through Silicon Via (TSV)-teknik för att integrera flera kretsar i en enda enhet. Denna arkitektur ger sammankopplingar med högre täthet, minskar den globala sammankopplingslängden, och lättar associerad RC-belastning vilket resulterar i förbättrad prestanda och minskad strömförbrukning på en mindre formfaktor.”

13:28 EDT – Chip on Wafer on Substrate, det största chipet som någonsin gjorts

01:28 EDT – Eh, 600mm^2 !!!!

01:27 EDT – 500mm^2 !!!

13:27 EDT – Jen-Hsun är “väldigt glad” över det

13:27 EDT – Förköp

01:27 EDT – Pascal, 16nm FinFET, Chip-On-Wafer-On-Substrate, NVLink och nya AI-algoritmer

01:26 PM EDT – Tesla P100 är “5 mirakel”

01:26 PM EDT – (150B transistorer räknar utan tvekan RAM, BTW)

01:26 PM EDT – Detta använder den tidigare tillkännagivna mezzaninkontakten med minne i paketet

13:25 EDT – (14 MB är enormt för en registerfil, förresten. Det är mycket mycket snabbt minne)

01:24 EDT – 5.3TF FP64, 10.6TF FP32, 21.2TF FP16, 14MB SM Register File, 4MB L2 Cache

13:24 EDT – 150B transistorer

01:23 PM EDT – “Det mest ambitiösa projektet vi någonsin har genomfört”

13:23 EDT – Tesla P100

13:23 EDT – writeln (‘Hej världen.’)

13:23 EDT – Pascal-tid!

01:22 PM EDT – AI behöver mer datorkraft än vad som är tillgängligt för närvarande

01:22 PM EDT – “Vi har helt enkelt inte tillräckligt med datorhästkrafter”

13:18 EDT – Lär AI att rita landskap inspirerade av dessa bilder

13:18 EDT – Träna den med bilder från den romantiska eran

13:17 EDT – Lär ett neuralt nätverk att måla

13:17 EDT – Demotid: Facebook AI Research

13:16 EDT – Jen-Hsun vill gå från övervakat, arbetsintensivt lärande till oövervakat lärande

13:14 EDT – GIE: 20 bilder/s/V på Tesla M4

01:14 PM EDT – “Det finns ingen anledning att använda FPGA. Det finns ingen anledning att designa dedikerade chips”

01:13 PM EDT – (Maxwell-drivna Tesla-kort: http://www.anandtech.com/show/9776/nvidia-announces-tesla-m40-m4-server-cards-data-center-machine-learning )

01:13 PM EDT – Sammanfattning av Tesla M40 och M4

01:13 PM EDT – Hyperscale är NVIDIAs snabbast växande marknad

13:11 EDT – Att uppnå supermänskliga resultat utan att supermänniskor programmerar dem

01:10 PM EDT – Sidanteckning: bitar av detta påminner mig om den hårda AI-eran på 80-talet, då sann AI vid ett tillfälle troddes vara precis runt hörnet

01:10 PM EDT – Pratar om hur allt bredare företag doppar tårna i AI och djupinlärning

01:08 PM EDT – “Framtidens molnplattformar kommer att drivas av AI”

13:06 EDT – Jen-Hsun sammanfattar områden där djupinlärning i slutändan har kommit fram till bättre algoritmer än mänskligt skapade program

13:03 EDT – “Djupt lärande är en stor sak”

13:03 EDT – “Du har hört mig prata om djupinlärning under de senaste fem åren”

12:59 PM EDT – Djup inlärning är nyckeln

12:57 EDT – Microsoft ImageNet har kunnat slå en människa vid bildigenkänning

12:57 PM EDT – Detta år kommer att markera ett stort år inom AI

12:55 EDT – Nästa: AI

12:54 PM EDT – Inte lika kapabel som Iray VR, men den kan hantera en enda fotosfär

12:54 PM EDT – Tillkännager också Iray VR Lite

12:53 PM EDT – Jen-Hsun vill komma till den punkt där han kan gå ur sin bil på kontoret och den kommer att parkera sig själv under jorden

12:51 PM EDT – (Detta är på en HTC Vive, för alla som håller koll)

12:51 PM EDT – Iray VR-rendering av insidan av NVIDIAs nya, under konstruktion högkvarter

12:49 EDT – Använda sonder för att markera fasta platser. Varje sond tar 1 timme på en Quadro-installation med 8 GPU

12:48 PM EDT – Raytracing-rendering för VR-applikationer

12:48 PM EDT – Nu tillkännager Iray VR

12:48 EDT – Mars-demon kördes på en Titan, men Jen-Hsun tror att det inte räcker. Behöver mer prestanda för att bättre fysiskt simulera ljus

12:46 EDT – Leverantörer har drivit VR som en upplevelse, och det här är en sådan idé

12:45 EDT – Geeks on Mars

12:44 EDT – Woz är den första personen som provar Mars 2030 i VR

12:43 EDT – Woz skulle seriöst gå om det var möjligt

12:42 EDT – Jen-Hsun vill göra Woz till den första personen på Mars

12:41 EDT – Steve Wozniak har ringt in

12:40 EDT – Demoing Mars 2030 live (men inte i VR)

12:37 EDT – Även i VR-turnén, Mars 2030, en 8 km^2 rekonstruktion av Mars yta

12:35 PM EDT – Rulla video

12:34 EDT – Everest VR kommer att demonstreras i showens VR-område

12:33 PM EDT – Hur kommer VR att förvandla kommunikation, design och mer?

12:32 PM EDT – Videospel är en mycket tydlig användning av VR. Men hur är det med andra områden?

12:31 PM EDT – “En helt ny datorplattform”

12:31 EDT – Nästa: VR

12:30 EDT – TX1 kan bearbeta 24 bilder per sekund per Watt

12:29 EDT – GIE är specifikt för slutledning, i motsats till träning på cuDNN

12:29 PM EDT – NVIDIA vill öka den övergripande bildbehandlingskapaciteten och energieffektiviteten

12:28 EDT – Ny plattform: GIE, GPU Inference Engine

12:27 EDT – Äntligen, Jetpack: Jetson/Tegra X1 mjukvaruekosystem

12:27 EDT – Nära partners (JPL-partners) har tidig tillgång till de aktuella testversionerna

12:26 EDT – Allmän release under Q1’17

12:26 EDT – DriveWorks: SensorFusion, datorseende/detektion

12:25 PM EDT – VRWorks: VR SLI, Context Priority, Multi-Res Shading

12:24 EDT – CUDA 8 bekräftade att stödja Pascal

12:23 EDT – Om CUDA 8 kommer i juni är det rimligt att vi kan se Pascal runt den tiden i någon form

12:22 EDT – CUDA 8 tillgänglig i juni

12:22 EDT – ComputeWorks: cuDNN, nvGRAPH, IndeX

12:20 EDT – DesignWorks: MDL-bibliotek, Optix, etc

12:19 PM EDT – Sammanfattning av de senaste GameWorks-funktionerna som voxelaccelererad omgivande ocklusion

12:18 PM EDT – Detta verkar vara en buntning av de olika NVIDIA SDK:erna, inklusive GameWorks, DriveWorks och VRWorks

12:17 EDT – Först ut: tillkännage NVIDIA SDK

12:17 EDT – Jen-Hsun kommer att prata om 5 saker: verktygslåda, djupinlärningschip, mjukvara för djupinlärning, VR och mer

12:15 EDT – Över 300 000 registrerade CUDA-utvecklare

12:15 PM EDT – Detta trots att de nu har flera GTC över hela världen

12:15 PM EDT – GTC blir större än någonsin. Dubbelt så stor som GTC 2012

12:13 EDT – Diskuterar att de gör allt detta för “dig”, publiken och dess stora datorbehov

12:12 EDT – Jen-Hsun står nu på scenen

12:11 PM EDT – Självkörande bilar, Go och mer

12:11 PM EDT – Videotemat: AI

12:09 EDT – Rulla video

12:09 EDT – Ljuset dämpas. Det är showtime

12:07 EDT – Keynote-salen är i full kapacitet, så det är fullt hus denna morgon

12:07 EDT – Alla uppmanas att ta plats

12:05 PM EDT – Samtidigt har jag inte sett några tecken på en bil än, men det skulle vara typiskt för Jen-Hsun att arbeta in en bil i sin presentation på något sätt

12:04 EDT – NVIDIA är verkligen några minuter försenad; det låter som att vi kan börja 9:10 eller så

12:04 PM EDT – WiFi är lite finnicky, men förhoppningsvis kommer vi att vara okej

12:00 EDT – Under tiden diskuterar någon bakom mig vädret. Igår var det på 70-talet; i morgon är det på 90-talet. Svaret från personen bredvid dem: pojke, de där GPU:erna är verkligen heta!

11:59 EDT – OpenPOWER-partners kommer att hålla en keynote i morgon för att diskutera de senaste framstegen inom den plattformen. För NVIDIA är det en stor sak eftersom OpenPOWER tidigare konfigurerades för att stödja NVLink mellan CPU och GPU:er

11:58 EDT – Till en sidoanteckning: som också äger rum i San Jose på kongresscentret är show-within-a-show OpenPOWER-konferensen

11:57 EDT – Vi kan kanske se några konsumentnyheter också, men det är ett stort om vid denna tidpunkt

11:57 EDT – Vissa nyheter om provisualisering (Quadro) är också troliga, med tanke på utställarnas stora fokus på VR här

11:57 EDT – Som ett minimum förväntar jag mig Tesla/HPC-nyheter på denna front, eftersom detta är vad NVIDIA har fokuserat på tidigare, och HPC-marknaden är inte lika timingkänslig

11:56 EDT – Den stora nyheten i år kommer givetvis att vara NVIDIAs Pascal-arkitektur, som är planerad att lanseras i år

11:56 EDT – Keynoten är planerad att börja kl. 09:00 PT, men jag misstänker att vi kommer att vara några minuter försenade

11:53 AM EDT – Kickar igång som alltid är NVIDIA keynote, presenterad av VD Jen-Hsun Huang

11:52 EDT – Vi är här i soliga San Jose för 2016 års upplaga av NVIDIAs årliga GPU Technology Conference (GTC)