pt
Lista de Produtos de IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Página Inicial
Notícias de IA
AI Daily
Guia de Monetização
Tutoriais de IA
Navegação de Ferramentas de IA
Biblioteca de Produtos de IA
pt
Lista de Produtos de IA
Pesquise as tendências globais de produtos de IA
Pesquise informações globais de IA e descubra novas oportunidades de IA
Informação de Notícias
Aplicações de Produtos
Casos de Monetização
Tutoriais de IA
Tipo :
Informação de Notícias
Aplicações de Produtos
Casos de Monetização
Tutoriais de IA
2024-03-01 10:46:13
.
AIbase
.
6.2k
Plataforma de IA Hugging Face expõe 100 modelos com execução de código malicioso
Pesquisadores descobriram cerca de 100 modelos de aprendizado de máquina maliciosos na plataforma de IA Hugging Face, que poderiam permitir que atacantes injetassem código malicioso nas máquinas dos usuários. Os modelos de IA maliciosos usam métodos como PyTorch para executar código malicioso, aumentando os riscos de segurança. Desenvolvedores de IA devem usar novas ferramentas, como o Huntr, para melhorar a segurança dos modelos de IA. Os modelos maliciosos descobertos destacam os riscos que os modelos de IA maliciosos representam para os ambientes dos usuários, exigindo vigilância contínua e segurança aprimorada.
2023-10-25 16:06:04
.
AIbase
.
2.5k
Estudo revela risco de manipulação de código malicioso pelo ChatGPT
Pesquisa britânica revela: ChatGPT pode ser usado para gerar código malicioso. Várias ferramentas de IA comercial apresentam vulnerabilidades de segurança, que podem comprometer a segurança de bancos de dados. Os pesquisadores alertam: riscos potenciais precisam de atenção. Algumas empresas já adotaram as recomendações para corrigir as vulnerabilidades, mas ainda é necessário fortalecer as estratégias de segurança cibernética.
2023-08-10 11:32:24
.
AIbase
.
304
Pesquisa IBM: Chatbots de IA são facilmente enganados para gerar código malicioso
{'1':'Pesquisa da IBM descobriu que modelos de linguagem grandes, como o GPT-4, podem ser enganados para gerar código malicioso ou fornecer conselhos de segurança falsos.''2':'Os pesquisadores descobriram que apenas conhecimentos básicos de inglês e algum conhecimento do conjunto de dados de treinamento do modelo são suficientes para enganar facilmente os chatbots de IA.''3':'Diferentes modelos de IA têm diferentes sensibilidades à enganação, com GPT-3.5 e GPT-4 sendo mais suscetíveis.'}