Le développement rapide de l'intelligence artificielle suscite des inquiétudes chez de nombreuses personnes, notamment quant au risque d'un éventuel dérapage futur de l'IA. C'est dans ce contexte d'anxiété qu'une nouvelle société de sécurité IA, Safe Superintelligence (SSI), a vu le jour. Derrière cette initiative se trouve Ilya Sutskever, l'ancien scientifique en chef d'OpenAI, dont la présence attire à nouveau l'attention.
Ilya Sutskever, en collaboration avec Daniel Gross et Daniel Levy, a cofondé SSI et a réussi à lever 1 milliard de dollars. L'objectif : développer des systèmes d'IA sûrs et surpassant les capacités humaines.
Créée il y a seulement trois mois, SSI a déjà attiré l'attention d'investisseurs de renom, notamment Andreessen Horowitz et Sequoia Capital. Bien qu'elle ne compte que 10 employés, la société est déjà évaluée à 5 milliards de dollars. Ces fonds serviront à acquérir davantage de puissance de calcul et à attirer les meilleurs talents. Les équipes seront principalement basées à Palo Alto en Californie et à Tel Aviv en Israël.
Lors d'une interview, Gross a déclaré qu'ils souhaitaient trouver des investisseurs qui comprennent et soutiennent la mission de l'entreprise. Leur objectif est de se concentrer sur la recherche et le développement de la superintelligence sûre, plutôt que de précipiter la mise sur le marché de leurs produits. Malgré le contexte réglementaire complexe actuel dans le domaine de la sécurité de l'IA, SSI reste convaincue de la nécessité de prévenir les dommages potentiels liés à l'IA.
Sutskever a mentionné que la création de SSI représentait un changement de direction par rapport à ses travaux précédents. Chez OpenAI, il dirigeait une équipe nommée « super alignement » visant à garantir que le comportement de l'IA soit conforme aux valeurs humaines. Son expérience chez OpenAI lui a apporté une riche expérience, mais il souhaite, au sein de SSI, faire progresser la technologie différemment.
En termes de culture d'entreprise, SSI accorde une grande importance au recrutement de candidats ayant une « bonne moralité ». Ils privilégient le potentiel et l'enthousiasme des candidats plutôt que leurs seules qualifications. Sutskever et son équipe recherchent des personnes capables d'apporter une réflexion novatrice pour réaliser des percées dans ce secteur en rapide évolution.
L'objectif de SSI n'est pas seulement de développer des technologies d'IA de pointe, mais aussi de garantir que ces technologies serviront l'humanité en toute sécurité à l'avenir, en évitant les risques potentiels.
Points clés :
1. 💰 SSI, cofondée par Ilya Sutskever, ancien scientifique en chef d'OpenAI, a réussi à lever 1 milliard de dollars et est évaluée à 5 milliards de dollars.
2. 🌍 L'entreprise se concentrera sur la recherche et le développement en matière de sécurité de l'IA, en veillant à mener des recherches et des développements approfondis avant le lancement de ses produits.
3. 🔍 SSI met l'accent sur le recrutement de personnes de « bonne moralité », en privilégiant le potentiel et l'enthousiasme des candidats plutôt que leurs seules qualifications.