Ilya Sutskever, cofundador de OpenAI, anunció recientemente que dejará su puesto como científico jefe de OpenAI en mayo de este año para dedicarse a un nuevo proyecto empresarial. Junto con su colega de OpenAI, Daniel Levy, y el exjefe de inteligencia artificial de Apple y cofundador de Cue, Daniel Gross, anunció la creación de Safe Superintelligence Inc., una empresa emergente cuya misión es construir una superinteligencia segura.

image.png

En la información publicada en el sitio web de SSI, los fundadores afirman que construir una superinteligencia segura es "el problema tecnológico más importante de nuestra época". Además, "consideramos la seguridad y la capacidad como una sola entidad, un problema tecnológico que abordaremos a través de innovaciones revolucionarias en ingeniería y ciencia. Nuestro plan es mejorar la capacidad lo más rápido posible, al tiempo que garantizamos que nuestra seguridad siempre esté a la vanguardia".

Entonces, ¿qué es la superinteligencia? Es un concepto hipotético que representa una entidad teórica con una inteligencia que supera con creces la del ser humano más inteligente.

Esta iniciativa es una continuación del trabajo de Sutskever en OpenAI. Fue miembro del equipo de Superalineación de la empresa, encargado de diseñar métodos para controlar los poderosos sistemas de inteligencia artificial. Sin embargo, con la salida de Sutskever, el equipo fue disuelto, una decisión que recibió fuertes críticas de Jean Leike, uno de los antiguos líderes.

SSI afirma que "impulsará directamente el desarrollo de la superinteligencia segura, centrándose en un objetivo y un producto".

Por supuesto, el cofundador de OpenAI jugó un papel importante en el breve despido del director ejecutivo Sam Altman en noviembre de 2023. Posteriormente, Sutskever expresó arrepentimiento por su papel en este evento.

La creación de Safe Superintelligence Inc. permitirá a Sutskever y otros concentrarse más en el problema de la superinteligencia segura, logrando un desarrollo de producto con un objetivo único.