Choisissez votre pays ou région.

EnglishFrançaispolskiSlovenija한국의DeutschSvenskaSlovenskáMagyarországItaliaहिंदीрусскийTiếng ViệtSuomiespañolKongeriketPortuguêsภาษาไทยБългарски езикromânescČeštinaGaeilgeעִבְרִיתالعربيةPilipinoDanskMelayuIndonesiaHrvatskaفارسیNederland繁体中文Türk diliΕλλάδαRepublika e ShqipërisëአማርኛAzərbaycanEesti VabariikEuskera‎БеларусьíslenskaBosnaAfrikaansIsiXhosaisiZuluCambodiaსაქართველოҚазақшаAyitiHausaКыргыз тилиGalegoCatalàCorsaKurdîLatviešuພາສາລາວlietuviųLëtzebuergeschmalaɡasʲМакедонскиMaoriМонголулсবাংলা ভাষারမြန်မာनेपालीپښتوChicheŵaCрпскиSesothoසිංහලKiswahiliТоҷикӣاردوУкраїнаO'zbekગુજરાતીಕನ್ನಡkannaḍaதமிழ் மொழி

Les performances dépassent NVIDIA! Intel annonce la première puce de cloud AI pour commencer une utilisation commerciale

Selon engadget, aux premières heures de Beijing, Intel a organisé le Sommet de l'intelligence artificielle 2019 à San Francisco, a officiellement lancé deux processeurs de réseau neuronal Nervana destinés à la formation et au raisonnement, et a dévoilé une nouvelle génération d'unité de traitement de la vision Movidius Myriad.

Il est rapporté que les deux processeurs de réseau neuronal Neurona incluent le NNP-T1000 orienté vers la formation et le NNP-I1000 orienté vers le raisonnement. C’est également la puce mise au point par Intel après l’acquisition des deux sociétés d’apprentissage automatique de Nervana Systems et de Movidius Ltd. en 2016. Lors de la réunion, Intel a annoncé que les deux puces commençaient officiellement à être commercialisées.

Parmi eux, NNP-T utilise la technologie de traitement 16 nm de TSMC, avec 27 milliards de transistors et une surface totale de 680 millimètres carrés. Intel a déclaré dans son communiqué d'août que le NNP-T1000 pouvait gérer jusqu'à 119 trillions d'opérations par seconde.

En outre, basé sur l’architecture de processeur Ice Lake 10 nm, le NNP-I1000 a une efficacité d’évaluation de 4,8 TOP / W sur ResNet50, qu'Intel appelle la puce la plus économe en énergie de sa catégorie.

Dans le même temps, Intel a également déclaré que des sociétés telles que Facebook et Baidu avaient hâte de déployer ces deux puces Nervana. Selon Misha Smelyanskiy, directeur de l'intelligence artificielle chez Facebook, ces puces sont essentielles pour accélérer le travail de l'intelligence artificielle, comme le traitement de 6 milliards de traductions par jour.

Il convient de noter que pour la prochaine génération d’unités de traitement de la vision Movidius, Intel est plus confiant que de le comparer aux produits NVIDIA.

Il est dit que l'unité de traitement visuel nommée Keem Bay peut fournir 4 fois plus de raisonnement Tops que NVIDIA Xavier. Lorsqu'elle est pleinement utilisée, la puce peut aider les clients à obtenir 50% de performances supplémentaires. Et cette nouvelle génération d'unités de traitement de la vision sera disponible dans la première moitié de 2020 et vous devez attendre patiemment.