02:12 EDT – Och det är en wrap. Vi kommer att få mer information när showen fortsätter
13:49 EDT – Slutligt meddelande: NV ger alla en free SKYDDA
01:48 EDT – Allt detta är CUDA
13:45 EDT – Inget idag om Maxwell för Tesla?
13:45 EDT – Jen-Hsun börjar sin avslutning
01:44 PM EDT – Bytbar modul
01:43 PM EDT – Connects dator är baserad på Tegra K1
01:42 EDT – Audi Connect
01:42 EDT – Audi tog med en bil. Den kör sig själv på scenen
01:40 PM EDT – Audi använder Tegra SoCs för sin bils kollisionssensorer
13:39 EDT – Nu på scen: Andreas Reich, chef för förutveckling för Audi
13:38 EDT – Erista verkar för sonen till Wolverine (dvs Logan): http://www.comicvine.com/erista/4005-60735/lists/
01:37 EDT – Erista är MAxwell-baserad. Planerad till 2015
01:37 PM EDT – Nästa generation Tegra tillkännages. Erista
13:37 EDT – VisionWorks är ett mjukvarupaket för datorseende. Gör vision, beräkningsfotografering, augmented reality och mer
13:36 EDT – Jetson kommer med NVIDAs nya VisionWorks-mellanprogram
13:36 EDT – NVIDIA döper normalt mobilprodukter efter serietidningshjältar. Inte säker på var “Jetson” passar in
13:35 EDT – 192 USD
13:35 EDT – Tegra K1 på ett bräde för utveckling
13:34 EDT – Nytt utvecklingspaket: Jetson TK1
13:32 EDT – Vad ska man göra med en CUDA-kapabel K1? Datorsyn
01:30 PM EDT – Upprepa Kepler K1, och hur den kan köra CUDA
13:30 EDT – Diskuterar hur de 10 bästa datorerna på Green 500-listan är Kepler-drivna
13:29 EDT – Nu uppe: Mobile CUDA
01:26 EDT – Olika VMWare-plattformar (ESX, Horizon, Horizon Daas) körs nu på GRID
13:24 EDT – Nu på scen: VMware
13:21 EDT – Nästa: GRD- och GPU-molnberäkning
01:20 PM EDT – Diskuterar användningsområden för lådan. Virtuella utställningslokaler etc
13:18 EDT – Iray VCA: $50 000
01:14 EDT – Rendering av en Honda-bil på 19 Iray VCAs
13:12 EDT – Demo av Iray VCA
01:11 PM EDT – Ser ut som en variant av NVIDIAs befintliga GRID VCA-hårdvara
01:11 PM EDT – Full GK110 GPU (2880 CUDA-kärnor vardera)
01:11 PM EDT – 8 Kepler GPU: er, 12GB per GPU. Anslutningsmöjligheter: GigE, 10GigE och Infiniband
01:10 PM EDT – Ny apparat: Iray VCA. Skalbar renderingsapparat
13:10 EDT – Nästa demo: Iray, fotorealistisk rendering
01:08 PM EDT – Körs på Titan Z
13:07 EDT – Realtidsdemo. Var inte en inspelad demo
13:06 EDT – Verklig simulering. Verklig förstörelse. Riktigt våldsamt
13:05 EDT – Unreal Engine 4-demo. Uppföljning av förra veckans tillkännagivande av GameWorks-integrering
13:03 EDT – Kinematik, vätskor och voxlar
12:59 EDT – Namn: Flex
12:59 PM EDT – Nästa: enhetlig fysiklösare i realtid
12:57 EDT – Ännu en dmo. Visar upp vattenrendering med en fysisk simulering bakom
12:55 PM EDT – Vad ska jag använda TItan Z till? Grafik räcker inte, behöver göra fysiksimuleringar för att göra den underliggande modellen mer exakt
12:54 EDT – 5760 CUDA-kärnor och 12 GB VRAM betyder att vi tittar på fullt aktiverade GK110 GPU:er
12:53 PM EDT – Marknadsför den till GTC-publiken som en superdator i en PCIe-formfaktor (även om du utan tvekan skulle kunna spela på den om du verkligen ville)
12:52 PM EDT – Använder en fläktdesign som liknar GTX 690. 1 central fläkt, delad fläkt med hälften av varmluften som går ut framtill och den andra hälften baktill
12:52 EDT – 5760 CUDA-kärnor, 12 GB VRAM, $3000
12:51 EDT – GeForce GTX Titan Z
12:51 PM EDT – Dubbel GPU-tid
12:51 PM EDT – Videotid
12:50 EDT – Titans säljer som smör. Billiga dubbel precisionsprestanda som gör den mer prisvärd och mer tillgänglig än Tesla
12:49 PM EDT – Reiterating GTX Titan
12:49 EDT – Och nu grafik
12:49 EDT – Nästa: big data
12:48 EDT – Avslutning på diskussion om maskininlärning
12:45 EDT – Tränar nu ett neuralt nät med hundar. Kan den identifiera hundar och deras raser?
12:42 EDT – Grön vs. Röd…
12:40 EDT – Ferraris- och NVIDIA-produkter. Japp, det är en Jen-Hsun keynote.
12:39 PM EDT – Neural nätverk utbildning demo
12:38 PM EDT – Nu hur Stanford byggde sin egen hjärna med hjälp av GPU:er. 4KW och $33K
12:36 EDT – (obligatoriskt Yoda/Yotta-skämt)
12:35 EDT – ~30 ExaFLOPS kontra ~150 YottaFLOPS
12:34 PM EDT – Den mänskliga hjärnan är fortfarande storleksordningar mer komplex och sammankopplad
12:34 PM EDT – “Google Brain” superdator. $5mil USD, 600KW, för forskning om datorseende
12:33 PM EDT – Även på en teknisk konferens dyrkar vi fortfarande bilder av katter på (projicerade) väggar
12:31 PM EDT – Diskuterar fortfarande användningsfall. På datorseende för tillfället, pratar om Stanford och Googles forskning i frågan
12:30 PM EDT – Pascal-meddelandet följer NVIDIAs tidigare Volta-meddelande från förra året. Stacked memory stod redan på schemat. NVLink är dock nytt
12:29 EDT – Inte helt klart hur prototypen ansluter till bussar dock (vi har inte sett undersidan)
12:28 EDT – Pascal-prototypen verkar vara nästan alla strömregleringskretsar, förutom själva chippet. Inget minne syns från paketet
12:27 EDT – Nu diskuterar de typer av beräkningsuppgifter de har i åtanke för Pascal
12:26 EDT – Maxwlel är dock fortfarande på schemat. Maxwell kommer att vara 2014, Pascal kommer att vara 2016. Så allt vi ser hittills är 2 år ledigt
12:26 EDT – Volta saknas i NV:s nya GPU-schema. Volta = Pascal?
12:25 EDT – Använder NVLInk och 3D-minne. Minnet kommer att vara 2-4 gånger tidigare GPU:er på minnesbandbredd och -storlek
12:25 PM EDT – Så NVIDIA har redan kisel, om detta inte är förfalskat
12:24 EDT – Provenheten finns på ett kort som är 1/3 av storleken på ett PCIe-kort
12:23 EDT – http://en.wikipedia.org/wiki/Blaise_Pascal
12:23 EDT – Chipnamn: Pascal. Uppkallad efter Blaise Pascal
12:22 EDT – (Till och med ett par år)
12:22 EDT – “Om bara några år kommer vi att ta bandbredden till en helt ny nivå”
12:22 EDT – Kapacitet har dock ännu inte diskuterats. Kan detta sluta likna en extra cache-nivå, ala Intels Crystalwell för processorer
12:21 PM EDT – 3D-minne kommer att använda Through Siicon Vias (TSV) för att ansluta DRAM-kretsarna genom varandra
12:21 PM EDT – Bör förbättra både bandbredd och energieffektivitet. Ultrabrett minnesgränssnitt (tusentals bitar brett)
12:20 EDT – Lösning: 3D-paketering. Stapla minnet med chippet
12:19 EDT – Hur ökar du minnesbandbredden när du redan kör en bred GDDR5-minnesbuss?
12:19 EDT – Nästa ämne: minnesbandbredd
12:19 PM EDT – “Nästa generation GPU”, har inte namngett den än så länge
12:18 PM EDT – 5-12x ökning av bandbredd
12:18 PM EDT – Diskuterar att använda den för både GPU-till-CPU och GPU-till-GPU-kommunikation
12:18 EDT – Diskuterar redan flera generationer. Det låter som att de tittar på att modifiera PCI-Express efter deras behov
12:17 EDT – Vi presenterar NVLink. En chip till chip kommunikationsbuss. Differentialbuss
12:17 EDT – Första tillkännagivandet
12:16 PM EDT – PCI-Express är bara 16 GB/sek, mot 288 GB/sek för lokalt GPU-minne. En faktor 18
12:16 PM EDT – Refererar till ett papper som pekar ut de olika flaskhalsarna, inklusive en brist på GPU-till-GPU-bandbredd
12:15 EDT – Diskuterar nu bandbredd. FLOP per byte
12:14 EDT – Jen-Hsun säger att han kommer att fokusera på big data, cloud computing och datorseende
12:12 EDT – Largeet GTC ever (igen). Nästan 600 samtal planerade
12:11 PM EDT – Diskuterar GPU/CPU-synergi, hur de specialiserar sig på olika typer av arbete och hur CUDA knyter ihop dem
12:10 EDT – Jen-Hsun välkomnar publiken och upprepar hur Tesla och CUDA var anledningen till att denna konferens skapades i första hand
12:09 EDT – Jen-Hsun står nu på scenen
12:07 EDT – NVIDIA börjar med en reklamrulle av olika enheter och teknologier som drivs av deras produkter
12:06 EDT – Och nu kör vi
12:05 PM EDT – Som en påminnelse, Maxwells markeringsramsfunktion ska vara ett enhetligt virtuellt minne, även om vi förväntar oss att det finns ytterligare funktioner som ännu inte har avslöjats
12:03 PM EDT – Så Big Maxwell (alias andra generationens Maxwell) kan dyka upp för att förbereda utvecklare för Maxwell-baserade Teslas
12:01 EDT – Naturligtvis är den stora frågan vad vi kommer att se av Maxwell i år. Under 2012 släppte NVIDIA massor av detaljer om Big Kepler (GK110), trots att det inte skulle skickas till köpare förrän i slutet av året
12:00 EDT – Jen-Hsun kommer sannolikt att vara grillad på tillståndet för NVIDIAs SoC-verksamhet. Tegra 4 har knappt slagit igenom, och Tegra 4i (A9 + basband) trycktes tillbaka förra året för att få Tegra 4 att marknadsföras tidigare
11:58 EDT – För NVIDIA:s vd Jen-Hsun Huang kommer det här att bli en mycket spänd dag. Strax efter att ha levererat företagets årliga keynote kommer han att möta investerare för NVIDIAs årliga investerarmöte och uppdatering
11:57 EDT – Räkna med statusuppdateringar för alla NVIDIAs kärnverksamheter, särskilt Quadro/GRID och Tesla. Det kan finnas några konsumentnyheter också, men NV har redan visat upp sina SoC-planer på CES 2014, och GTC är normalt inte så stor på konsumentdGPU-nyheter
11:56 EDT – Nu när det gäller dagens keynote, den är planerad att pågå i 2 timmar, så det kommer inte att saknas material att prata om
11:55 EDT – NVscene hölls senast 2008, innan NVIDIA hade bildat den mer permanenta GPU Tech Conference. Det kan bli den största scenfesten i Nordamerika i år
11:54 EDT – http://nv.scene.org/
11:54 EDT – Även detta år äger rum NVscene, NVIDIAs sponsrade scenfest, tävling och utbildningssessioner
11:53 EDT – Och det ser ut som att NVIDIA bara kan fylla de flesta av dessa utrymmen, att döma av kartan
11:52 EDT – I år har San Jose Convention Center äntligen slutfört renoveringarna. Så det finns inte bara ingen irriterande byggutrustning i vägen, utan det finns mer utrymme än någonsin för evenemang
11:48 EDT – Ryan är på sms idag, Anand är på bildtjänst, vi sitter och redo att gå