Recentemente, com o rápido desenvolvimento da tecnologia de inteligência artificial, pesquisadores propuseram uma ideia intrigante: para melhor confirmar se usuários online são humanos e não robôs de IA, o sistema de "Credencial de Humanidade" (Personhood Credential - PHC) deve substituir a verificação CAPTCHA tradicional. Esta equipe de pesquisa inclui cientistas de universidades da Ivy League e empresas como OpenAI e Microsoft, que apresentaram esse conceito em um artigo ainda não revisado por pares.
Eles temem que, com a proliferação da IA, atores mal-intencionados usem o poder da IA para inundar a internet com conteúdo não humano. A IA agora pode gerar conteúdo "semelhante ao humano" e até mesmo se passar por humanos reais em atividades online, tornando métodos de verificação tradicionais como CAPTCHA cada vez mais ineficazes. Portanto, a ideia do sistema PHC está ganhando força. Os pesquisadores imaginam que governos ou outras instituições de serviços digitais poderiam emitir uma credencial de identidade única para cada usuário, que usaria uma tecnologia de criptografia chamada "prova de conhecimento zero" para verificar se é um humano sem revelar informações específicas.
A credencial seria armazenada digitalmente pelos usuários em seus dispositivos pessoais, protegendo, em certa medida, o anonimato online dos usuários. Este sistema não apenas substituiria os CAPTCHAs e tecnologias de biometria existentes, mas também poderia melhorar a eficácia da verificação humana. No entanto, os pesquisadores também reconhecem que o sistema PHC não é isento de falhas. Por exemplo, muitas pessoas podem vender seus PHCs para spammers de IA, potencialmente exacerbando a proliferação de conteúdo indesejado online. A centralização da instituição emissora de credenciais também é uma preocupação, podendo levar a uma concentração excessiva de poder em poucas empresas.
Além disso, o sistema de credenciais pode representar um obstáculo para usuários menos familiarizados com a internet, como idosos. Portanto, os pesquisadores recomendam que os governos considerem testar a viabilidade do PHC por meio de projetos piloto. Mas o problema é que o sistema PHC, sem dúvida, imporia novas responsabilidades digitais aos usuários, e a raiz desses problemas reside nas empresas de tecnologia. Os pesquisadores apontam que as empresas de tecnologia devem assumir a responsabilidade de resolver esses problemas, como adicionar marcas d'água ao conteúdo gerado por IA ou desenvolver tecnologias capazes de identificar conteúdo gerado por IA. Embora essas medidas não sejam infalíveis, pelo menos devolvem a responsabilidade à origem da tecnologia.
Destaques:
💡 Pesquisadores propõem um sistema de "Credencial de Humanidade", destinado a substituir a verificação CAPTCHA tradicional para confirmar se os usuários online são humanos.
🔒 O sistema PHC usa criptografia para proteger a privacidade do usuário, mas pode levar ao abuso de credenciais e à concentração de poder.
⚠️ As empresas de tecnologia precisam assumir a responsabilidade pelos problemas causados pela IA, considerando medidas como a marca d'água de conteúdo gerado por IA.