Ilya Sutskever, um dos cofundadores e ex-cientista-chefe da OpenAI, apenas um mês após sua saída, fundou uma nova empresa com dois ex-colegas, a Safe Superintelligence Inc. (SSI), focada em resolver os problemas de segurança dos sistemas de inteligência artificial "superinteligentes".
Sutskever trabalha há muito tempo na área de segurança de IA, tendo colaborado com Jan Leike e outros da OpenAI para impulsionar os esforços da empresa em melhorar a segurança da IA. No entanto, ele teve divergências com a liderança da OpenAI sobre como abordar esse problema, levando à sua saída em maio; anteriormente, Leike havia se juntado à Anthropic.
Em um post de blog, Sutskever e Leike previram que a IA superaria a inteligência humana em 10 anos, mas não necessariamente de forma benigna, e que, portanto, métodos de controle e limitação precisavam ser pesquisados. Agora, ele continua focado nesse objetivo.
Nota da imagem: Imagem gerada por IA, fornecida pelo serviço de licenciamento de imagens Midjourney
Na quarta-feira, Sutskever anunciou nas redes sociais a criação da SSI, afirmando que a missão da empresa, o nome e todo o roteiro do produto estão focados na segurança da IA "superinteligente". A SSI considera a segurança um desafio técnico e planeja resolvê-lo por meio de avanços em engenharia e ciência.
Ele revelou que a SSI planeja melhorar a capacidade e a segurança da IA, expandindo sua escala com segurança e sem se deixar afetar por pressões comerciais de curto prazo. Ao contrário da OpenAI, que era sem fins lucrativos e depois se tornou lucrativa, a SSI é uma entidade lucrativa desde o início.
Sutskever se recusou a comentar sobre as finanças da SSI. Mas o cofundador Gross disse que a captação de recursos não será um problema. A SSI atualmente possui escritórios em Palo Alto e Tel Aviv e está contratando profissionais de tecnologia.