No cenário tecnológico atual, a inteligência artificial (IA) tem gerado amplas discussões. O professor de cibersegurança da Universidade De Montfort, Eerke Boiten, argumenta que os sistemas de IA existentes apresentam falhas fundamentais em termos de gerenciamento e confiabilidade, e, portanto, não devem ser usados em aplicações críticas.
O professor Boiten destaca que os sistemas de IA atuais dependem em grande parte de grandes redes neurais, especialmente a IA generativa e os grandes modelos de linguagem (como o ChatGPT). O funcionamento desses sistemas é relativamente complexo; embora o comportamento de cada neurônio seja determinado por fórmulas matemáticas precisas, o comportamento geral é imprevisível. Essa característica "emergente" torna difícil a gestão e a verificação eficazes do sistema.
Nota da imagem: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney
Do ponto de vista da engenharia de software, o professor Boiten enfatiza que os sistemas de IA carecem de composabilidade e não podem ser desenvolvidos de forma modular como o software tradicional. Devido à ausência de uma estrutura interna clara, os desenvolvedores não conseguem segmentar e gerenciar a complexidade de forma eficaz, nem desenvolver ou testar gradualmente. Isso limita a verificação dos sistemas de IA a testes gerais, que são extremamente difíceis devido ao grande espaço de entrada e estado.
Além disso, o comportamento errôneo dos sistemas de IA costuma ser imprevisível e difícil de corrigir. Isso significa que, mesmo que erros sejam detectados durante o treinamento, o treinamento não garante que esses erros sejam corrigidos de forma eficaz, podendo até mesmo introduzir novos problemas. Portanto, o professor Boiten argumenta que os sistemas de IA atuais devem ser evitados em qualquer aplicação que exija responsabilidade.
No entanto, o professor Boiten não perdeu totalmente a esperança. Ele acredita que, embora os sistemas de IA generativa atuais possam ter atingido um ponto crítico, a combinação de inteligência simbólica e IA baseada em intuição pode levar ao desenvolvimento de sistemas de IA mais confiáveis no futuro. Esses novos sistemas podem gerar modelos de conhecimento ou níveis de confiança explícitos, aumentando a confiabilidade da IA em aplicações práticas.