Au cœur de la course à l'IA, les puces de Nvidia suscitent la convoitise des start-up

Auteur:
 
Par Alex PIGMAN avec Julie JAMMOT à San Francisco - AFP
Publié le 29 septembre 2023 - 13:10
Cet article provient directement de l'AFP (Agence France Presse)
Image
TP Innovation et Technologie
Crédits
F. Froger / Z9, pour FranceSoir
F. Froger / Z9, pour FranceSoir

Dix mois après le lancement en fanfare de ChatGPT, la révolution de l'intelligence artificielle (IA) s'est accélérée, mais elle fait face à ses premiers obstacles, comme les forts besoins des start-up du secteur en composants électroniques.

Sans un certain type de semi-conducteurs, à savoir les cartes graphiques (ou GPU en anglais), difficile de développer des modèles d'IA générative. Une seule entreprise produit actuellement des composants de ce type suffisamment puissants pour cette technologie : Nvidia.

Le fondateur et patron de l'entreprise américaine, Jensen Huang, a parié il y a des années sur ces processeurs prisés des développeurs de jeux vidéo, persuadé que, tôt ou tard, le monde en aurait besoin pour l'IA.

Et il a remporté son pari : aujourd'hui, aucune entreprise ne peut mettre au point de systèmes d'IA générative sans s'appuyer sur les GPU de Nvidia, tout particulièrement sa puce H100 et les logiciels associés.

Une dure réalité pour la concurrence, d'Amazon à Intel en passant par un autre champion des ordinateurs pour les jeux vidéos, AMD, qui cherchent depuis à combler leur retard. Le rattrapage va prendre plusieurs années.

Cette situation n'est pas évidente non plus pour les petites entreprises qui doivent faire preuve d'imagination pour avoir accès à ces précieux composants.

"Il devient compliqué de mettre la main sur des milliers de GPU, car les géants de la tech déversent des milliards de dollars pour en stocker", constate Fangbo Tao, cofondateur de Mindverse.AI, une jeune pousse singapourienne.

"Il ne reste pas beaucoup de puces disponibles".

Le prix à payer

ChatGPT a débarqué sur les écrans au moment où la Silicon Valley sortait d'une année 2022 noire, marquée par le contrecoup de la pandémie, la baisse des investissements et les vagues de licenciements.

Le succès foudroyant de cette nouvelle IA a revigoré tout le secteur du numérique. Les start-up qui se lancent dans l'IA générative sont très bien accueillies par les investisseurs.

Mais les fonds ainsi récoltés partent aussitôt dans les poches de Nvidia ou de services de cloud (informatique à distance).

"On fait appel à beaucoup de grands fournisseurs de cloud (Microsoft, AWS et Google, NDLR) et ils nous disent qu'ils ont du mal à se fournir", souligne Laurent Daudet, PDG de LightOn, une start-up qui crée des modèles de langage.

Le problème est particulièrement épineux pour celles qui veulent entraîner leurs propres modèles d'IA générative, la phase de création la plus gourmande en puissance de calcul, car elle nécessite de traiter des montagnes de données récoltées en ligne.

Seules quelques entreprises ont donc les moyens de développer de grands modèles de langage généralistes.

L'investissement de dix milliards de dollars de Microsoft dans OpenAI est d'ailleurs largement considéré comme le prix à payer pour construire les serveurs nécessaires, alimentés par des GPU de Nvidia bien sûr.

"Marché asséché"

Google construit ses propres modèles et lundi, c'était au tour d'Amazon d'annoncer le versement de quatre milliards de dollars à Anthropic AI, une autre startup d'IA générative, concurrente d'OpenAI.

L'entraînement des modèles "est en train de quasi totalement assécher le marché des GPU", regrette Said Ouissal, patron de Zededa, une entreprise qui cherche à réduire la consommation d'énergie de l'IA.

"Actuellement, vous devez attendre le milieu ou même la fin de l'année prochaine pour être livrés si vous passez commande. Et la pénurie ne semble pas près d'être réglée", renchérit Wes Cummins, directeur général d'Applied Digital, spécialisée dans les infrastructures IA.

Les acteurs soulignent également que le rôle essentiel de Nvidia dans l'écosystème place le groupe, de fait, en faiseur de roi quant à l'avenir de l'IA.

Le marché est "quasi totalement aux mains des géants du secteur, Google, Amazon, Meta", qui disposent de "quantités énormes de données et de capital" pour acheter les puces de Nvidia et ainsi développer de l'IA à grande échelle, estimait Jacopo Pantaleoni, ancien ingénieur de Nvidia, dans une interview accordée à The Information.

"Ce n'est pas le monde que je voulais construire", ajoutait-il.

De l'avis de certains vieux connaisseurs de la Silicon Valley, la frénésie autour des GPU de Nvidia ne va toutefois pas durer éternellement et d'autres options vont finir par apparaître.

Sans cela, le coût d'entrée sur le marché de l'IA risque de devenir hors de prix, même pour les géants du numérique.

L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.

Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement  car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.

Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.

Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.

Je fais un don à France-Soir

Les dessins d'ARA

Soutenez l'indépendance de FS

Faites un don

Nous n'avons pas pu confirmer votre inscription.
Votre inscription à la Newsletter hebdomadaire de France-Soir est confirmée.

La newsletter France-Soir

En vous inscrivant, vous autorisez France-Soir à vous contacter par e-mail.