Anonim
Deep Learning und andere KI-Anwendungen sollen mit Intels neuen Nervana-Prozessoren effizienter und schneller werden.
Deep Learning og andre AI-applikationer siges at være mere effektive og hurtigere med Intels nye Nervana-processorer.
Foto: Intel

Intel lægger sig. Efter at kineserne med Huawei og Ascend AI CPU'er hidtil i løbet om en omfattende portefølje af specialiserede AI-chips var 1-0 i spidsen, tæller nu Intel med sine egne dedikerede AI-processorer. Og ønsker, som det blev kaldt på Intel AI-topmødet, bedre end konkurrencen med hensyn til ydeevne og ydeevne med en faktor på ti eller seks. Derudover AI-processorer til at aflaste xenon-CPU'er på servere og computere, hvilket giver hurtigere og mere effektive AI-applikationer. Dette skulle fremskynde udviklingen og implementeringen af ​​AI-systemer fra skyen til kanten.

Intels AI-portefølje

Nye tilføjelser til Intel-porteføljen inkluderer to Nervana Neural Network Processors (NNP'er): NNP-T1000 er beregnet til træning / læring af AI-applikationer, NNP-I1000-inferensprocessoren til behandling af data baseret på de indlærede data. Begge chips er de første ASIC'er, som Intel har udviklet specifikt til kompleks dyb læring. Porteføljen suppleres med Movidius Vision Processing Unit (VPU) til AI-understøttede applikationer med billedgenkendelse - for eksempel visuel kvalitetskontrol i produktionen.

Med de nye AI-chips reklamerer Intel for at have branchens bredeste AI-portefølje. En repræsentation, som du sandsynligvis ikke nødvendigvis vil dele med Huawei. Med sine AI-løsninger agter Intel at generere 3, 5 milliarder dollars salg i år.

spoods.de

Intel sender nu de nye Nervana NNP'er, mens Movidius VPU vil være tilgængelig i første halvdel af 2020. Intel ser sine NNP'er som en del af sin AI-systemniveau-tilgang. Den egentlige hardware supplerer Intel som konkurrenterne omkring sin egen softwarestak, som er at forenkle softwareudviklingen.

Chips til Facebook og Baidu

Hvis du tror på Intel, balanserer NNP-T databehandling, kommunikation og hukommelse, hvilket muliggør næsten lineær, energieffektiv skalering. På denne måde kan det bruges fra små klynger op til store supercomputere. I modsætning hertil er NNP-I velegnet til intensive multimodale inferenser. Begge produkter er udviklet i betragtning af AI-kravene fra store AI-brugere som Baidu eller Facebook. For eksempel ønsker Facebook at bruge sin deep-learning compiler Glow til at understøtte inferensberegninger via NNP-I.

udstilling

Hvad der venter os i 2030

Was uns 2030 erwartet - Foto: Dell

Innovative teknologier fører til forstyrrende ændringer. Denne undersøgelse afslører, hvad ledere af verdens førende virksomheder forventer af den digitale fremtid.

Download undersøgelsen

Intel annoncerede også sin nye DevCloud for Edge, som sammen med distributionen af ​​OpenVINO-værktøjssæt løser et afgørende problem for udviklere. Du kan teste, teste og prototype dine AI-løsninger på en lang række Intel-processorer, inden du skal købe hardware.