Le Machine Intelligence Research Institute (MIRI), un groupe de recherche à but non lucratif, appelle à l'arrêt mondial de la recherche sur les modèles fondamentaux ou « de pointe », craignant que leurs problèmes de sécurité ne menacent la survie de l'humanité. Un modèle fondamental est un système d'intelligence artificielle applicable à de multiples modalités. Le MIRI estime que les modèles fondamentaux deviendront plus intelligents que les humains et pourraient potentiellement « détruire l'humanité ».
Source : Image générée par IA, fournisseur de services d'autorisation d'images : Midjourney
Dans le domaine technologique, plusieurs personnalités influentes, dont Elon Musk et Steve Wozniak, ont appelé à une pause dans le développement de modèles fondamentaux plus puissants que GPT-4 d'OpenAI. Mais le MIRI souhaite aller plus loin : sa récente stratégie de communication appelle à l'arrêt complet des tentatives de construction de systèmes plus intelligents que les humains.
Le groupe affirme : « Les décideurs politiques traitent principalement les problèmes par des compromis : ils cèdent du terrain à un endroit pour obtenir un avantage ailleurs. Nous craignons que la plupart des législations visant à préserver la survie de l'humanité passent par le processus politique habituel et soient réduites à des compromis inefficaces. Pendant ce temps, l'horloge tourne. Les laboratoires d'IA continuent d'investir dans le développement et l'entraînement de systèmes plus puissants. Nous ne semblons pas près d'obtenir la législation globale nécessaire. »
Le MIRI souhaite que les gouvernements obligent les entreprises qui développent des modèles fondamentaux à installer un « interrupteur d'arrêt » afin de pouvoir désactiver les systèmes d'IA si ceux-ci développent des tendances malveillantes ou des « risques X ».
L'organisation à but non lucratif indique qu'elle reste attachée à l'idée de systèmes intelligents plus intelligents que les humains, mais souhaite attendre d'« avoir les moyens de construire en toute sécurité de telles IA avant de le faire ».
Le MIRI a été fondé par Eliezer Yudkowsky en 2000. Parmi ses soutiens figurent Peter Thiel et Vitalik Buterin, co-fondateur de la crypto-monnaie Ethereum. Le Future of Life Institute est également l'un des principaux contributeurs du MIRI.
Bradley Shimmin, analyste principal chez Omdia, une société de recherche sur l'IA et l'analyse de données, estime que le MIRI aura du mal à convaincre les législateurs en raison du manque d'études étayant ses affirmations. Il déclare : « Le marché a déjà pris en compte ces problèmes et a conclu que l'état actuel et l'avenir proche des modèles GenAI basés sur les transformateurs ne permettent de faire pratiquement rien d'autre que de créer des représentations utiles de sujets complexes. » Shimmin souligne que le MIRI identifie correctement le fossé de connaissances entre la construction et la réglementation de l'intelligence artificielle.
Points clés :
- 📣 Le Machine Intelligence Research Institute (MIRI), un groupe de recherche à but non lucratif, appelle à l'arrêt mondial de la recherche sur les modèles fondamentaux ou « de pointe », craignant que leurs problèmes de sécurité ne menacent la survie de l'humanité.
- 🤖 Le MIRI souhaite que les gouvernements obligent les entreprises qui développent des modèles fondamentaux à installer un « interrupteur d'arrêt » afin de pouvoir désactiver les systèmes d'IA si ceux-ci développent des tendances malveillantes ou des « risques X ».
- 🌐 Bradley Shimmin, analyste principal chez Omdia, une société de recherche sur l'IA et l'analyse de données, estime que le MIRI aura du mal à convaincre les législateurs en raison du manque d'études étayant ses affirmations.