Serveur d'impression

Pour propulser l'intelligence artificielle, cette start-up a construit une puce vraiment grosse – Bien choisir son serveur d impression

Par Titanfall , le 28 septembre 2019 - 5 minutes de lecture

Les puces informatiques sont généralement petites. Le processeur qui alimente les derniers iPhone et iPad est plus petit qu'un ongle; même les appareils costauds utilisés dans les serveurs de cloud ne sont pas beaucoup plus gros qu'un timbre-poste. Ensuite, il y a cette nouvelle puce d’une startup appelée Cerebras: C’est plus grand qu’un iPad à lui tout seul.

Le monstre en silicium mesure près de 22 centimètres de chaque côté, ce qui en fait probablement la plus grande puce informatique de tous les temps et un monument à l’espoir de l’intelligence artificielle de l’industrie de la technologie. Cerebras prévoit de le proposer aux entreprises de haute technologie qui tentent de développer plus rapidement une intelligence artificielle plus intelligente.

Eugenio Culurciello, membre du fabricant de puces Micron qui a travaillé sur la conception de puces pour AI mais n'a pas participé au projet, qualifie de "folle" l'ampleur et l'ambition de la puce de Cerebras. Il pense également que cela a du sens, puissance demandée par les projets d’intelligence artificielle à grande échelle tels que les assistants virtuels et les voitures autonomes. «Cela coûtera cher, mais certaines personnes l'utiliseront probablement», dit-il.

L'essor actuel de l'IA repose sur une technologie appelée apprentissage en profondeur. Les systèmes d'intelligence artificielle qui en découlent sont développés à l'aide d'un processus appelé formation, dans lequel les algorithmes s'optimisent eux-mêmes à une tâche en analysant des exemples de données.

Les données de formation peuvent être des analyses médicales annotées pour marquer des tumeurs ou les tentatives répétées d’un bot pour gagner un jeu vidéo. Les logiciels fabriqués de cette manière sont généralement plus puissants lorsqu'ils disposent de davantage de données ou que le système d'apprentissage lui-même est plus grand et plus complexe.

Continue de lire

Dernières nouvelles sur l'intelligence artificielle, de l'apprentissage automatique à la vision par ordinateur, etc.

La puissance de calcul est devenue un facteur limitant pour certains des projets d'IA les plus ambitieux. Une étude récente sur la consommation d'énergie de la formation en profondeur a révélé que le développement d'un seul logiciel de traitement du langage pourrait coûter 350 000 dollars. Le laboratoire d'IA à but lucratif OpenAI a estimé qu'entre 2012 et 2018, la quantité de puissance de calcul utilisée pour les plus grandes expériences d'IA publiées a doublé environ tous les trois mois et demi.

Les experts en IA qui aspirent à plus de punch utilisent généralement des processeurs graphiques, ou GPU. Le boom de l'apprentissage en profondeur a pour origine la découverte que les GPU sont bien adaptés aux calculs mathématiques qui sous-tendent la technique, une coïncidence qui a multiplié par huit le cours de l'action du principal fournisseur de GPU, Nvidia, au cours des cinq dernières années. Plus récemment, Google a développé ses propres puces d'IA personnalisées pour l'apprentissage en profondeur, appelées TPU, et de nombreuses startups ont commencé à travailler sur leur propre matériel d'IA.

Pour former des logiciels d’apprentissage en profondeur à des tâches telles que la reconnaissance d’images, les ingénieurs utilisent des grappes de nombreux GPU reliés entre eux. Faire un bot qui a pris sur le jeu vidéo Dota 2 L’année dernière, OpenAI a bloqué des centaines de GPU pendant des semaines.

La puce de Cerebras, à gauche, est plusieurs fois plus grande qu'un processeur graphique Nvidia, à droite, très utilisée par les chercheurs en intelligence artificielle.

Cerebras

La puce de Cerebras couvre plus de 56 fois la surface du GPU de serveur le plus puissant de Nvidia, déclaré au lancement en 2017 comme la puce la plus complexe de tous les temps. Le fondateur et PDG de Cerebras, Andrew Feldman, a déclaré que le processeur géant pouvait effectuer le travail d'un groupe de centaines de GPU, en fonction de la tâche à accomplir, tout en consommant beaucoup moins d'énergie et d'espace.

Feldman dit que la puce permettra aux chercheurs en intelligence artificielle – et à la science de l'IA – de progresser plus rapidement. «Vous pouvez poser plus de questions», dit-il. "Il y a des choses que nous n'avons tout simplement pas pu essayer."

Ces revendications s’appuient en partie sur les vastes stocks de mémoire embarquée de la puce Cerebras, ce qui permet de former des logiciels d’apprentissage en profondeur plus complexes. Feldman affirme que sa conception surdimensionnée tire également parti du fait que les données peuvent se déplacer autour d’une puce environ 1 000 fois plus rapidement qu’elles ne le sont entre des puces distinctes liées les unes aux autres.

Faire une puce aussi grande et puissante pose des problèmes qui lui sont propres. La plupart des ordinateurs gardent la fraîcheur en soufflant de l'air, mais Cerebras a dû concevoir un système de conduites d'eau qui passent à proximité de la puce pour l'empêcher de surchauffer.

APPRENDRE ENCORE PLUS

Le guide WIRED de l'intelligence artificielle

Selon M. Feldman, «une poignée» de clients essaient la puce, notamment pour résoudre des problèmes de conception de médicaments. Il envisage de vendre des serveurs complets construits autour de la puce, plutôt que des puces, mais refuse de discuter du prix ou de la disponibilité.

Click to rate this post!
[Total: 0 Average: 0]

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.