Aller au contenu principal
shapes shapes
Quoi de neuf dans la Silicon Valley ?

Comment l'IA générative a changé les rapports de force entre les investisseurs dans la Silicon Valley ?
par Georges Nahon

image hero
Retour
Après une année d'immersion dans le monde du ChatGPT, il est devenu évident qu'à l'exception de Microsoft, tous les principaux acteurs de l'intelligence artificielle classique ont été dépassés et pris de cours par son ascension fulgurante. En réponse, les géants de la technologie ont accéléré et réorienté leurs efforts de développement interne vers l'intelligence artificielle générative (IAG). En un temps record, ils sont aussi devenus d'importants investisseurs, rivalisant avec le capital-risque, et ont notablement réduit son impact grâce à des partenariats de plusieurs milliards de dollars avec des startups axées sur l'IAG.

Le capital risque est marginalisé par les BigTech dans le secteur de l'IAG et la montée des CVCs
Selon le cabinet Pitchbook, un montant total de 23,2 milliards de dollars a été injecté dans des startups spécialisées en IAG jusqu'au 15 octobre 2023, soit une augmentation de 250,2 % par rapport à l'année précédente. Cependant, en dehors de ces partenariats majeurs avec des entreprises, les investissements traditionnels en capital-risque ne parviennent qu'à égaler le montant total levé par les leaders de l'IAG en 2021, avec seulement 7,9 milliards de dollars investis dans des tours de financement conventionnels jusqu'à présent. Ceci exclut les accords conclus par Microsoft et Amazon avec OpenAI, Anthropic et Inflection AI en raison de leur valeur exceptionnelle et de l'engagement à long terme des ressources de cloud computing en échange de liquidités, une forme d'échange marchandises ou de "round-tripping".

Ces investissements majeurs se distinguent du capital-risque habituel car les fonds utilisés proviennent des comptes des entreprises plutôt que de leurs activités de Corporate VC (CVC) assimilables à du capital risque.

Par ailleurs, la forte participation d'autres CVCs a fortement impacté les résultats des VC : les CVCs représentent désormais 89,7 % de la valeur des affaires conclues, contre seulement 41,2 % en 2022. Bien que ces CVCs ne soient impliqués que dans 26,7 % des affaires, cette baisse d'une année à l'autre s'explique par leur concentration sur les leaders du marché capables d'assumer d'énormes dépenses dans le cloud. Par exemple, OpenAI dépenserait 700 000 $ par jour pour exploiter son ChatGPT.

L'IAG se révèle être un secteur d'infrastructure, consommant une puissance de traitement informatique considérable actuellement concentrée dans les mains des BigTech, les trois plus grands opérateurs de cloud, qui y voient une opportunité inattendue et bienvenue. À l'exception de Meta, qui n'a pas révélé d'activité commerciale dans le cloud, distribuant toutefois ses grands modèles de langage d'IA (LLMs) en open source sur le cloud Azure de Microsoft, concurrençant directement les logiciels commerciaux des autres. De nouveaux acteurs offrent également l'accès en logiciel libre à leurs LLMs pour les développeurs, tels que et Mistral AI avec Mistral 7B v0.1 et Hugging Face avec BLOOM. Pour promouvoir l'open source pour l'IA, Meta, IBM, Oracle, AMD, intel, Stability AI et des centres de recherches comme UC Berkeley, Yale, NASA, CERN ont formé en décembre 2023 "l'IA Alliance" pour un open source responsable et sûr, avec un accent sur la sécurité. Il s'agit aussi d'encourager la création de nouveaux LLMs et d'informer le public et les décideurs politiques sur l’IA.

La bataille pour le marché des puces IA
Si les BigTech n'ont pas pu monopoliser les LLMs, Nvidia, quant à elle, domine le marché des puces IA avec environ 95 % du marché. Le rôle des puces spécifiques dans le domaine de l'IA est crucial, avec Nvidia apportant des technologies en avance majeure depuis des années, forte de son expérience dans le graphisme des vidéo jeux puis dans les crypto monnaies.

La clé du succès de Nvidia n’était pas tant ses puces en soi, mais la popularité de l’interface de programmation qui s’appelle CUDA qui permet aux développeurs d’implémenter des applications d’IA sur les puces IA. C’est CUDA qui a permis à Nvidia de "verrouiller" les clients, selon l'investisseur Nathan Benaich. Les nouveaux acteurs ne se sont pas concentrés assez tôt sur les logiciels. Et Nvidia a continué à faire évoluer CUDA pour faciliter la construction de modèles d’IA plus grands (LLMs) et les exécuter beaucoup plus rapidement sur ses puces. Jensen Huang, le PDG co-fondateur de Nvidia a déclaré que sa société bénéficiait d’une avance de dix ans sur ses rivaux parce qu’elle ne fabriquait pas seulement des puces. "Elle a réinventé les ordinateurs." Pour les concurrents, il est difficile de rivaliser avec un acteur historique qui se comporte comme une start-up. Qui plus est, cette longueur d’avance, qui comprend le matériel et les bibliothèques logicielles associées, est protégée par des milliers de brevets.

La très forte demande pour les puces IA de Nvidia notamment Hopper and Grace a provoqué une augmentation de près de 210 % du cours de l’action de la société (soit, multiplication par 3) cette année, faisant de Nvidia le fabricant de semi-conducteurs coté en bourse avec la plus grande valorisation dans le monde. Nvidia a vendu ses puces des mois à l’avance, de nombreux rapports indiquant qu'il ne pouvait plus prendre de commandes pour 2024.

En décembre 2023, Nvidia avait une capitalisation boursière de 1,156 billion de dollars. Cela fait de Nvidia la 6e entreprise la plus valorisée au monde en terme de capitalisation boursière derrière Apple, Microsoft, Saudi Aramco, Alphabet (Google), Amazon et devant Meta (Facebook).

TSMC, le plus grand fabricant de semi-conducteurs au monde est taiwanais se trouve en 13 ème place. Il utilise les machines d'ASML (31 ème du classement) qui est l'un des leaders mondiaux de la fabrication de machines de photolithographie à ultraviolet extrême, seule société européenne du domaine dans le classement. Selon le Financial Times, TSMC détient environ 90 % du marché mondial des puces avancées. TSMC affiche des marges brutes de près de 60 %, Nvidia de 74 %. TSMC réalise un chiffre d’affaires de 76 milliards de dollars par an. TSMC est aussi l’un des plus grands détenteurs de brevets au monde avec plus de 52 000 brevets liés à la fabrication de puces. 
Ainsi, les prétendants aux puces d’IA font face à des "douves" redoutables (dans le jargon de la Silicon Valley), un ticket d'entrée extrêmement élevé.

En réaction, les BigTech investissent et développent leurs propres puces d'IA sur mesure pour améliorer les performances, réduire les coûts et intégrer l'IA dans leurs produits et services, cherchant ainsi à réduire leur dépendance vis-à-vis de Nvidia qui ne reste pas inactive de son côté.

Microsoft a annoncé le lancement de sa puce de traitement de l’IA conçue sur mesure et d’un processeur basé sur ARM personnalisé. La puce principale est Azure Maia 100 AI. Ce qui est intéressant dans l'approche c'est que cette puce est conçue à la fois pour "l’entraînement et l’inférence" (càd créer les modèles LLMs, puis leur faire "générer" un résultat). Selon Morningstar, le Maia 100 n’est pas une unité de traitement graphique (GPU) comme chez Nvidia ou AMD, mais plutôt une conception totalement spécifique et optimisée pour le traitement de l’IA, capable d'augmenter les performances à des prix plus bas.

Meta (ex-Facebook) a créé sa propre puce d’IA, MTIA v1, pour réduire les coûts et accélérer les processus d’IA, bien qu’elle ne puisse pas égaler les GPU Nvidia en termes de performances. 
Google a développé des puces d’IA personnalisées appelées TPU, y compris la nouvelle puce TPUv4i conçue pour l’inférence des "transformers" de l'IAG.
Amazon Web Services a annoncé Trainium2, une puce pour l’entraînement des modèles d'IA et sa nouvelle puce IA Trainium2 ainsi que le processeur polyvalent Graviton4 pour ses activités de cloud pour l'IA.
Tesla aussi développe ses propres puces IA pour ses besoins. 
Il y a aussi le développement de puces IA spécifiques pour intégration dans les appareils comme par exemple le Coral AI Edge TPU de Google et le Neural Processing Unit d'Apple. 
Les acteurs historiques des semi-conducteurs, Intel, ARM, AMD et Qualcomm, distancés par Nvidia, travaillent sur leurs propres offres et développements. AMD a annoncé sa puce d'accélération d'IA, la famille MI300. Intel a ses accélérateurs Gaudi 2 et le 4th Gen Intel Xeon Scalable processors. Qualcomm a aussi annoncé son Cloud AI 100 Ultra, une carte d’inférence d’intelligence artificielle (IA) dans le cloud, spécialement conçue pour l’IA générative et les grands modèles de langage (LLM).

Il y a également d'autres acteurs que sont des startups aux États-Unis, en Europe et en Israël qui préparent des nouvelles générations de puces IA en levant des fonds de VCs et d'autres investisseurs. 

Même OpenAI envisage de développer ses propres puces IA, cherchant à mobiliser 100 milliards de dollars pour acquérir la société britannique de puces IA Graphcore.  M. Altman PDG, OpenAI a même signé une lettre d’intention pour acheter pour 51 M de $ de puces IA à une start-up appelée Rain AI dans laquelle il a également investi personnellement plus d' 1 M de $. Rain AI aurait mis au point une technologie dite neuromorphique (NPU ou Neural Processing Unit) ou puce d'accélération de réseaux de neurones 100 fois plus puissante et 1000 fois plus économe en énergie que ses concurrents actuels.

L'avenir est prometteur pour les technologies d'IAG
2024 sera riche en mouvements financiers dans le secteur de l'IAG avec l'apparition de nouveaux LLMs plus petits, moins onéreux à exploiter et en open source pour beaucoup d'entre eux. 
Des nouvelles puces IA vont faire leur apparition avec de nouveaux acteurs aux cotés des historiques du silicium et des BigTech : des startups et peut-être aussi OpenAI.

Pour ce qui est des investisseurs dans l'IAG, la mutation voire l'inversion inhabituelle des rôles entre les acteurs du marché (VCs versus BigTech et CVCs) constituent des mouvements inhabituels qui reflètent l'instabilité et la fébrilité actuelles dans ce secteur dans la Silicon Valley. 
Certains voient dans cette période d'euphorie actuelle le pic d'une bulle d'exubérance qui précéderait une correction sérieuse en 2024. Cependant, rien n'est moins sûr. L'IAG ce n'est pas les crypto monnaies ni les mondes virtuels.

Les rapports sur le déclin de l'IAG sont grandement exagérés.

Le 5 décembre 2023
Georges Nahon, analyste des technologies numériques et de l'innovation de la Silicon Valley. Précédemment pendant 15 ans, CEO d'Orange Silicon Valley à San Francisco.

Autres articles sur le même thème

image
Quoi de neuf dans la Silicon Valley ?
Intelligence artificielle : les grands modèles de langage approchent de leurs limites
par Georges Nahon
Mag #20
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
Trump 2.0 et la tech américaine
par Georges Nahon
Mag #19
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
Du financement aux innovations, l'IA continue de dominer le secteur du numérique
Mag #18
Lire l'article
image
Quoi de neuf dans la Silicon Valley ?
Les sceptiques de l'IA ont dominé les médias pendant l'été technologique 2024 Bulle ou pas Bulle ? Et quel ROI ?
Mag #17
Lire l'article