Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

NVIDIA GTC 2014 Keynote Live Blog

02:12 EDT – Och det är en wrap. Vi kommer att få mer information när showen fortsätter

13:49 EDT – Slutligt meddelande: NV ger alla en free SKYDDA

01:48 EDT – Allt detta är CUDA

13:45 EDT – Inget idag om Maxwell för Tesla?

13:45 EDT – Jen-Hsun börjar sin avslutning

01:44 PM EDT – Bytbar modul

01:43 PM EDT – Connects dator är baserad på Tegra K1

01:42 EDT – Audi Connect

01:42 EDT – Audi tog med en bil. Den kör sig själv på scenen

01:40 PM EDT – Audi använder Tegra SoCs för sin bils kollisionssensorer

13:39 EDT – Nu på scen: Andreas Reich, chef för förutveckling för Audi

13:38 EDT – Erista verkar för sonen till Wolverine (dvs Logan): http://www.comicvine.com/erista/4005-60735/lists/

01:37 EDT – Erista är MAxwell-baserad. Planerad till 2015

01:37 PM EDT – Nästa generation Tegra tillkännages. Erista

13:37 EDT – VisionWorks är ett mjukvarupaket för datorseende. Gör vision, beräkningsfotografering, augmented reality och mer

13:36 EDT – Jetson kommer med NVIDAs nya VisionWorks-mellanprogram

13:36 EDT – NVIDIA döper normalt mobilprodukter efter serietidningshjältar. Inte säker på var “Jetson” passar in

13:35 EDT – 192 USD

13:35 EDT – Tegra K1 på ett bräde för utveckling

13:34 EDT – Nytt utvecklingspaket: Jetson TK1

13:32 EDT – Vad ska man göra med en CUDA-kapabel K1? Datorsyn

01:30 PM EDT – Upprepa Kepler K1, och hur den kan köra CUDA

13:30 EDT – Diskuterar hur de 10 bästa datorerna på Green 500-listan är Kepler-drivna

13:29 EDT – Nu uppe: Mobile CUDA

01:26 EDT – Olika VMWare-plattformar (ESX, Horizon, Horizon Daas) körs nu på GRID

13:24 EDT – Nu på scen: VMware

13:21 EDT – Nästa: GRD- och GPU-molnberäkning

01:20 PM EDT – Diskuterar användningsområden för lådan. Virtuella utställningslokaler etc

13:18 EDT – Iray VCA: $50 000

01:14 EDT – Rendering av en Honda-bil på 19 Iray VCAs

13:12 EDT – Demo av Iray VCA

01:11 PM EDT – Ser ut som en variant av NVIDIAs befintliga GRID VCA-hårdvara

01:11 PM EDT – Full GK110 GPU (2880 CUDA-kärnor vardera)

01:11 PM EDT – 8 Kepler GPU: er, 12GB per GPU. Anslutningsmöjligheter: GigE, 10GigE och Infiniband

01:10 PM EDT – Ny apparat: Iray VCA. Skalbar renderingsapparat

13:10 EDT – Nästa demo: Iray, fotorealistisk rendering

01:08 PM EDT – Körs på Titan Z

13:07 EDT – Realtidsdemo. Var inte en inspelad demo

13:06 EDT – Verklig simulering. Verklig förstörelse. Riktigt våldsamt

13:05 EDT – Unreal Engine 4-demo. Uppföljning av förra veckans tillkännagivande av GameWorks-integrering

13:03 EDT – Kinematik, vätskor och voxlar

12:59 EDT – Namn: Flex

12:59 PM EDT – Nästa: enhetlig fysiklösare i realtid

12:57 EDT – Ännu en dmo. Visar upp vattenrendering med en fysisk simulering bakom

12:55 PM EDT – Vad ska jag använda TItan Z till? Grafik räcker inte, behöver göra fysiksimuleringar för att göra den underliggande modellen mer exakt

12:54 EDT – 5760 CUDA-kärnor och 12 GB VRAM betyder att vi tittar på fullt aktiverade GK110 GPU:er

12:53 PM EDT – Marknadsför den till GTC-publiken som en superdator i en PCIe-formfaktor (även om du utan tvekan skulle kunna spela på den om du verkligen ville)

12:52 PM EDT – Använder en fläktdesign som liknar GTX 690. 1 central fläkt, delad fläkt med hälften av varmluften som går ut framtill och den andra hälften baktill

12:52 EDT – 5760 CUDA-kärnor, 12 GB VRAM, $3000

12:51 EDT – GeForce GTX Titan Z

12:51 PM EDT – Dubbel GPU-tid

12:51 PM EDT – Videotid

12:50 EDT – Titans säljer som smör. Billiga dubbel precisionsprestanda som gör den mer prisvärd och mer tillgänglig än Tesla

12:49 PM EDT – Reiterating GTX Titan

12:49 EDT – Och nu grafik

12:49 EDT – Nästa: big data

12:48 EDT – Avslutning på diskussion om maskininlärning

12:45 EDT – Tränar nu ett neuralt nät med hundar. Kan den identifiera hundar och deras raser?

12:42 EDT – Grön vs. Röd…

12:40 EDT – Ferraris- och NVIDIA-produkter. Japp, det är en Jen-Hsun keynote.

12:39 PM EDT – Neural nätverk utbildning demo

12:38 PM EDT – Nu hur Stanford byggde sin egen hjärna med hjälp av GPU:er. 4KW och $33K

12:36 EDT – (obligatoriskt Yoda/Yotta-skämt)

12:35 EDT – ~30 ExaFLOPS kontra ~150 YottaFLOPS

12:34 PM EDT – Den mänskliga hjärnan är fortfarande storleksordningar mer komplex och sammankopplad

12:34 PM EDT – “Google Brain” superdator. $5mil USD, 600KW, för forskning om datorseende

12:33 PM EDT – Även på en teknisk konferens dyrkar vi fortfarande bilder av katter på (projicerade) väggar

12:31 PM EDT – Diskuterar fortfarande användningsfall. På datorseende för tillfället, pratar om Stanford och Googles forskning i frågan

12:30 PM EDT – Pascal-meddelandet följer NVIDIAs tidigare Volta-meddelande från förra året. Stacked memory stod redan på schemat. NVLink är dock nytt

12:29 EDT – Inte helt klart hur prototypen ansluter till bussar dock (vi har inte sett undersidan)

12:28 EDT – Pascal-prototypen verkar vara nästan alla strömregleringskretsar, förutom själva chippet. Inget minne syns från paketet

12:27 EDT – Nu diskuterar de typer av beräkningsuppgifter de har i åtanke för Pascal

12:26 EDT – Maxwlel är dock fortfarande på schemat. Maxwell kommer att vara 2014, Pascal kommer att vara 2016. Så allt vi ser hittills är 2 år ledigt

12:26 EDT – Volta saknas i NV:s nya GPU-schema. Volta = Pascal?

12:25 EDT – Använder NVLInk och 3D-minne. Minnet kommer att vara 2-4 gånger tidigare GPU:er på minnesbandbredd och -storlek

12:25 PM EDT – Så NVIDIA har redan kisel, om detta inte är förfalskat

12:24 EDT – Provenheten finns på ett kort som är 1/3 av storleken på ett PCIe-kort

12:23 EDT – http://en.wikipedia.org/wiki/Blaise_Pascal

12:23 EDT – Chipnamn: Pascal. Uppkallad efter Blaise Pascal

12:22 EDT – (Till och med ett par år)

12:22 EDT – “Om bara några år kommer vi att ta bandbredden till en helt ny nivå”

12:22 EDT – Kapacitet har dock ännu inte diskuterats. Kan detta sluta likna en extra cache-nivå, ala Intels Crystalwell för processorer

12:21 PM EDT – 3D-minne kommer att använda Through Siicon Vias (TSV) för att ansluta DRAM-kretsarna genom varandra

12:21 PM EDT – Bör förbättra både bandbredd och energieffektivitet. Ultrabrett minnesgränssnitt (tusentals bitar brett)

12:20 EDT – Lösning: 3D-paketering. Stapla minnet med chippet

12:19 EDT – Hur ökar du minnesbandbredden när du redan kör en bred GDDR5-minnesbuss?

12:19 EDT – Nästa ämne: minnesbandbredd

12:19 PM EDT – “Nästa generation GPU”, har inte namngett den än så länge

12:18 PM EDT – 5-12x ökning av bandbredd

12:18 PM EDT – Diskuterar att använda den för både GPU-till-CPU och GPU-till-GPU-kommunikation

12:18 EDT – Diskuterar redan flera generationer. Det låter som att de tittar på att modifiera PCI-Express efter deras behov

12:17 EDT – Vi presenterar NVLink. En chip till chip kommunikationsbuss. Differentialbuss

12:17 EDT – Första tillkännagivandet

12:16 PM EDT – PCI-Express är bara 16 GB/sek, mot 288 GB/sek för lokalt GPU-minne. En faktor 18

12:16 PM EDT – Refererar till ett papper som pekar ut de olika flaskhalsarna, inklusive en brist på GPU-till-GPU-bandbredd

12:15 EDT – Diskuterar nu bandbredd. FLOP per byte

12:14 EDT – Jen-Hsun säger att han kommer att fokusera på big data, cloud computing och datorseende

12:12 EDT – Largeet GTC ever (igen). Nästan 600 samtal planerade

12:11 PM EDT – Diskuterar GPU/CPU-synergi, hur de specialiserar sig på olika typer av arbete och hur CUDA knyter ihop dem

12:10 EDT – Jen-Hsun välkomnar publiken och upprepar hur Tesla och CUDA var anledningen till att denna konferens skapades i första hand

12:09 EDT – Jen-Hsun står nu på scenen

12:07 EDT – NVIDIA börjar med en reklamrulle av olika enheter och teknologier som drivs av deras produkter

12:06 EDT – Och nu kör vi

12:05 PM EDT – Som en påminnelse, Maxwells markeringsramsfunktion ska vara ett enhetligt virtuellt minne, även om vi förväntar oss att det finns ytterligare funktioner som ännu inte har avslöjats

12:03 PM EDT – Så Big Maxwell (alias andra generationens Maxwell) kan dyka upp för att förbereda utvecklare för Maxwell-baserade Teslas

12:01 EDT – Naturligtvis är den stora frågan vad vi kommer att se av Maxwell i år. Under 2012 släppte NVIDIA massor av detaljer om Big Kepler (GK110), trots att det inte skulle skickas till köpare förrän i slutet av året

12:00 EDT – Jen-Hsun kommer sannolikt att vara grillad på tillståndet för NVIDIAs SoC-verksamhet. Tegra 4 har knappt slagit igenom, och Tegra 4i (A9 + basband) trycktes tillbaka förra året för att få Tegra 4 att marknadsföras tidigare

11:58 EDT – För NVIDIA:s vd Jen-Hsun Huang kommer det här att bli en mycket spänd dag. Strax efter att ha levererat företagets årliga keynote kommer han att möta investerare för NVIDIAs årliga investerarmöte och uppdatering

11:57 EDT – Räkna med statusuppdateringar för alla NVIDIAs kärnverksamheter, särskilt Quadro/GRID och Tesla. Det kan finnas några konsumentnyheter också, men NV har redan visat upp sina SoC-planer på CES 2014, och GTC är normalt inte så stor på konsumentdGPU-nyheter

11:56 EDT – Nu när det gäller dagens keynote, den är planerad att pågå i 2 timmar, så det kommer inte att saknas material att prata om

11:55 EDT – NVscene hölls senast 2008, innan NVIDIA hade bildat den mer permanenta GPU Tech Conference. Det kan bli den största scenfesten i Nordamerika i år

11:54 EDT – http://nv.scene.org/

11:54 EDT – Även detta år äger rum NVscene, NVIDIAs sponsrade scenfest, tävling och utbildningssessioner

11:53 EDT – Och det ser ut som att NVIDIA bara kan fylla de flesta av dessa utrymmen, att döma av kartan

11:52 EDT – I år har San Jose Convention Center äntligen slutfört renoveringarna. Så det finns inte bara ingen irriterande byggutrustning i vägen, utan det finns mer utrymme än någonsin för evenemang

11:48 EDT – Ryan är på sms idag, Anand är på bildtjänst, vi sitter och redo att gå