Le développement et l'application de l'intelligence artificielle (IA) ont suscité un engouement mondial ces dernières années, mais certains experts commencent à s'inquiéter de l'avenir de ce secteur. James Ferguson, associé fondateur de la société britannique d'études macroéconomiques MacroStrategy Partnership, a déclaré lors d'une interview accordée au podcast "Merryn Talks Money" de Merryn Somerset Webb sur Bloomberg que le secteur de l'IA pourrait être en pleine bulle spéculative, dont l'éclatement aurait des conséquences désastreuses.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Ferguson estime que, malgré l'attention portée à l'IA, elle reste "totalement non prouvée". Il souligne que la stratégie de la Silicon Valley consistant à "faire semblant jusqu'à ce que vous réussissiez" pourrait ne pas s'appliquer à l'IA. Il met en garde contre le fait qu'une déception concernant l'IA pourrait engendrer une méfiance à long terme envers l'ensemble du secteur.
Ces inquiétudes ne sont pas infondées. Dans une note de recherche de mars, l'analyste boursier spécialisé dans les technologies Richard Windsor a écrit que des situations similaires s'étaient déjà produites, comme la bulle Internet de 1999, l'engouement pour les voitures autonomes de 2017 et, aujourd'hui en 2024, l'engouement pour l'IA générative.
Même certains leaders du secteur technologique se montrent pessimistes quant à l'avenir. Emad Mostaque, ancien PDG de Stability AI, a averti les banquiers l'été dernier qu'il pensait que le secteur de l'IA pourrait connaître "la plus grande bulle spéculative de l'histoire".
Les défauts techniques sont également une source d'inquiétude. Ferguson souligne que les grands modèles linguistiques, tels que GPT-4 d'OpenAI, peuvent parfois générer de fausses informations, un phénomène appelé "hallucinations". Certains experts considèrent qu'il s'agit d'une caractéristique inhérente à l'IA, qui pourrait ne jamais être résolue. Si l'IA ne peut pas être fiable, alors, selon Ferguson, elle est en fait "inutile".
De plus, l'entraînement et la maintenance des modèles d'IA nécessitent une énorme quantité d'énergie, ce qui les rend "trop énergivores". Par exemple, les émissions de carbone de Google ont presque doublé en cinq ans, une tendance due aux investissements importants de l'entreprise dans l'IA, et qui est loin de ses propres objectifs climatiques.
Points clés :
⚠️ **Alerte bulle spéculative IA :** Les experts craignent qu'un afflux massif de capitaux dans le secteur de l'IA puisse entraîner des conséquences désastreuses.
💬 **Problème de confiance technologique :** Les fausses informations générées par l'IA (hallucinations) pourraient constituer un problème inhérent à la technologie, affectant sa crédibilité.
🔋 **Problème de consommation énergétique :** L'énorme besoin d'énergie des modèles d'IA pourrait aller à l'encontre des objectifs climatiques.