Ilya Sutskever, uno de los cofundadores y ex científico jefe de OpenAI, ha fundado una nueva empresa, Safe Superintelligence Inc. (SSI), junto a dos antiguos colegas, apenas un mes después de dejar la compañía. SSI se centra en resolver los problemas de seguridad de los sistemas de inteligencia artificial "superinteligentes".
Sutskever ha trabajado durante mucho tiempo en el campo de la seguridad de la IA, colaborando con Jan Leike de OpenAI y otros en los esfuerzos de la empresa para mejorar la seguridad de la IA. Sin embargo, discrepó con la dirección de OpenAI sobre cómo abordar este problema, lo que llevó a su salida en mayo; previamente, Leike se había unido a Anthropic.
En una entrada de blog, Sutskever y Leike predijeron que la IA superará la inteligencia humana en 10 años, pero no necesariamente de manera benévola, por lo que es necesario investigar métodos de control y limitación. Ahora, él continúa enfocado en este objetivo.
Nota de la fuente: Imagen generada por IA, servicio de licencias de imágenes Midjourney
El miércoles, Sutskever anunció en las redes sociales el lanzamiento de SSI, afirmando que la misión de la empresa, su nombre y toda su hoja de ruta se centran en lograr la seguridad de la IA "superinteligente". SSI considera la seguridad como un desafío técnico y planea abordarlo mediante avances en ingeniería y ciencia.
Reveló que SSI planea mejorar la capacidad y la seguridad de la IA, expandiendo su escala de forma segura y sin la presión de los resultados comerciales a corto plazo. A diferencia de OpenAI, que comenzó como una organización sin fines de lucro y luego se convirtió en una con fines de lucro, SSI es una entidad con fines de lucro desde su creación.
Sutskever se negó a comentar sobre las finanzas de SSI. Sin embargo, el cofundador Gross afirmó que la recaudación de fondos no será un problema. SSI actualmente tiene oficinas en Palo Alto y Tel Aviv, y está contratando personal técnico.