Quoi de neuf dans la Silicon Valley ?
Chaque nouvelle version de LLMs depuis ChatGPT 3.5 avait apporté jusqu'à présent une amélioration substantielle de leurs fonctionnalités et de leurs possibilités. Ce n'est plus le cas apparemment.
Le nouveau modèle Orion d'OpenAI n'est pas substantiellement plus performant que son prédécesseur ChatGPT-4. Situation analogue avec l'Opus 3.5 d'Anthropic. Chez les autres acteurs des LLMs on a observé des retards à la mise en service de leurs nouvelles versions. Ilya Sutskever co-fondateur d'OpenAI a déclaré à Reuters que la phase d'entrainement d’un modèle d’IA qui utilise une grande quantité de données non étiquetées pour comprendre les modèles et les structures du langage - ont atteint un plateau.Jusqu'à récemment encore, le credo du monde de l'IA était que les puces, les données et l’énergie" étaient les ressources essentielles nécessaires pour réussir dans la course à l’IA. (Selon le FT)
Mais les améliorations attendues par le passage à l’échelle, le toujours plus grand, pourraient ralentir à mesure que les données de haute qualité deviennent limitées, même en augmentant la quantité de données globale ingérées par les LLMs en phase d'apprentissage. En d'autres termes, miser uniquement sur des modèles plus gros et davantage de données ne garantit plus que l'on obtiendra des LLMs nettement plus intelligents à chaque itération. Et certainement cette situation ne justifie plus les énormes investissements de plusieurs dizaines de millions de dollars pour entrainer de nouvelles versions des modèles existants ou en créer de nouveaux.