Le cofondateur de Databricks affirme que l'AGI est déjà là
Fazen Markets Research
AI-Enhanced Analysis
Paragraphe principal
Le 8 avril 2026, le cofondateur de Databricks a publiquement affirmé que l'intelligence générale artificielle (AGI) « est déjà là », une déclaration rapportée le même jour dans un bref article de Seeking Alpha (Seeking Alpha, 8 avril 2026). Cette assertion cristallise une narration croissante chez certains dirigeants de l'IA selon laquelle les progrès de capacité sont passés d'améliorations étroites à des systèmes à généralisation plus large — un basculement qui aurait des implications immédiates pour la demande de capacité de calcul, l'adoption de logiciels d'entreprise et les valorisations au sein du complexe technologique. Les investisseurs cherchent désormais à déterminer s'il s'agit d'une caractérisation marketing d'avancées incrémentales ou d'un véritable point d'inflexion susceptible de réévaluer les fournisseurs d'infrastructure IA et les opérateurs cloud. Le calendrier compte : les marchés publics ont de plus en plus intégré des attentes liées à l'AGI depuis le lancement de ChatGPT le 30 novembre 2022 et la sortie de GPT‑4 le 14 mars 2023 (OpenAI). Les entreprises et les gestionnaires d'actifs doivent donc évaluer à la fois la crédibilité technique de l'affirmation et ses canaux probables de transmission économique.
Contexte
Le commentaire du cofondateur de Databricks est intervenu dans une interview publiée le 8 avril 2026 (Seeking Alpha, 8 avril 2026). Databricks est une société privée située à l'intersection de l'ingénierie des données, de l'analytique et du déploiement à grande échelle de modèles ; sa plateforme est largement utilisée par les entreprises pour l'entraînement et l'inférence de modèles. La prise de parole publique de la société compte car Databricks exécute des charges de production chez les principaux fournisseurs cloud et a influencé les cycles d'adoption des modèles de langage et des modèles fondamentaux dans les industries réglementées. Historiquement, les sorties majeures des laboratoires de recherche dominants ont signalé des changements de cap dans les attentes des investisseurs — par exemple, le lancement public de ChatGPT le 30 novembre 2022 qui a accéléré les expérimentations en entreprise, et GPT‑4 le 14 mars 2023 qui a élargi l'attention des investisseurs sur les capacités générales des modèles (OpenAI).
Le contexte macro montre une concentration de la demande de calcul et de logiciels auprès d'un nombre restreint de fournisseurs. La capitalisation boursière de Nvidia a franchi le seuil du billion de dollars en 2023 alors que les marchés anticipaient une demande accélérée de GPU pour l'IA (CNBC, juillet 2023). Au niveau cloud, Synergy Research Group a rapporté des parts de marché des services d'infrastructure cloud d'environ 32 % pour AWS et 22 % pour Microsoft Azure au T4 2023, soulignant comment des charges de travail à l'échelle AGI bénéficieraient de manière disproportionnée aux principaux hyperscalers (Synergy Research, T4 2023). Ces structures de marché créent une exposition asymétrique : si les charges de travail de classe AGI sont réellement pratiques et répandues, les fournisseurs matériels en place et les hyperscalers sont susceptibles de capter une part disproportionnée des dépenses incrémentales.
La question de la crédibilité est à la fois technique et économique. Une déclaration selon laquelle « l'AGI est déjà là » nécessite des définitions opérationnelles — la revendication porte‑t‑elle sur la généralisation dans des environnements variés, l'apprentissage par transfert entre tâches, le raisonnement ouvert ou l'autonomie ? Historiquement, les affirmations de capacité au niveau AGI sont rares et suivies typiquement d'un examen rigoureux par les pairs au sein de la communauté de recherche. Les investisseurs doivent donc distinguer le langage marketing des métriques démontrables telles que les performances zero‑shot sur des benchmarks larges, l'efficacité du transfert d'apprentissage et la prise de décision autonome en situation d'incertitude.
Analyse des données
Il existe trois canaux empiriques pour quantifier la pertinence de l'affirmation pour les marchés : les tendances de consommation de calcul, les métriques d'adoption en entreprise et la dynamique des prix pour le déploiement de modèles. La consommation de calcul est déjà en forte hausse ; les données publiquement rapportées et les estimations industrielles montrent que l'entraînement de modèles fondamentaux de pointe a requis des ordres de grandeur supérieurs depuis 2018. Par exemple, le calcul utilisé dans les plus grandes sessions d'entraînement a augmenté d'environ 300 000x entre 2012 et 2018 dans un article largement cité par des chercheurs d'OpenAI (OpenAI/Amodei et al., 2018). Des signaux publics plus récents — hausses de revenus GPU chez des fournisseurs clés et contraintes de capacité rapportées par des fournisseurs cloud — s'alignent sur une croissance soutenue des charges d'entraînement.
Sur l'adoption en entreprise, Databricks et ses pairs signalent un nombre croissant de clients passant du pilote au déploiement en production. Bien que Databricks soit privé et sélectif dans ses divulgations, les rapports de marché indiquent que les dépenses des entreprises en logiciels et services IA ont atteint des dizaines de milliards par an en 2023, avec une expansion projetée au cours de la décennie. Les métriques d'adoption cloud renforcent la concentration : la part cloud d'AWS d'environ 32 % contre 22 % pour Azure (Synergy Research, T4 2023) implique qu'une demande incrémentale significative pour des services de classe AGI aurait des effets disproportionnés sur les taux de croissance des revenus des hyperscalers par rapport aux plus petits fournisseurs cloud ou aux solutions sur site.
La dynamique des prix importe pour les marges et l'intensité de capital. Les hyperscalers et les fournisseurs de GPU ont ajusté les prix et l'allocation de capacité en réponse à des chocs de demande ; les prix spot des instances GPU ont été volatils et, par moments, multipliés durant les périodes de demande de pointe. Si les charges AGI deviennent sensibles à la latence et persistantes (inférence à grande échelle), l'économie marginale pourrait favoriser les fournisseurs verticalement intégrés capables d'amortir les coûts d'infrastructure à travers logiciels et services. Cette dynamique s'est déjà manifestée lors de cycles précédents où l'intégration verticale et l'échelle ont conféré un pouvoir de fixation des prix aux incumbents.
Implications sectorielles
Fournisseurs matériels : Nvidia et d'autres fabricants de GPU sont les bénéficiaires évidents si l'AGI augmente sensiblement la demande de calcul haute performance. La concentration du marché dans la conception et la fabrication de GPU signifie qu'un saut de la demande peut se traduire rapidement par une expansion significative des revenus et des marges. Lors des cycles précédents, une demande rapide de GPU a entraîné des tensions d'approvisionnement, un renforcement des prix et une hausse des dépenses d'investissement des exploitants de centres de données. Cette concentration augmente également le risque de point de défaillance unique pour les entités dépourvues de relations fournisseurs diversifiées.
Fournisseurs cloud et éditeurs de logiciels d'entreprise : les principaux hyperscalers (AWS, Azure, GCP) sont positionnés pour capter le
Sponsored
Ready to trade the markets?
Open a demo account in 30 seconds. No deposit required.
CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money.