es
Ranking de Productos de IA
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
Inicio
Noticias de IA
AI Diario
Guías de Monetización
Tutoriales de IA
Navegación de Herramientas de IA
Biblioteca de Productos de IA
es
Ranking de Productos de IA
Busca la dinámica global de productos de IA
Busca información global de IA y descubre nuevas oportunidades de IA
Información de Noticias
Aplicaciones de Productos
Casos de Monetización
Tutoriales de IA
Tipo :
Información de Noticias
Aplicaciones de Productos
Casos de Monetización
Tutoriales de IA
2024-03-01 10:46:13
.
AIbase
.
6.2k
Plataforma de IA de Hugging Face expone 100 modelos con ejecución de código malicioso
Investigadores han descubierto aproximadamente 100 modelos de aprendizaje automático maliciosos en la plataforma de IA Hugging Face, que podrían permitir a los atacantes inyectar código malicioso en las máquinas de los usuarios. Los modelos de IA maliciosos utilizan métodos como PyTorch para ejecutar código malicioso, lo que agrava los riesgos de seguridad. Los desarrolladores de IA deben utilizar nuevas herramientas como Huntr para mejorar la seguridad de los modelos de IA. Los modelos maliciosos descubiertos ponen de manifiesto los riesgos que representan los modelos de IA maliciosos para el entorno del usuario, por lo que es necesario mantener la vigilancia y reforzar la seguridad.
2023-10-25 16:06:04
.
AIbase
.
2.5k
Estudio revela riesgo de manipulación de código malicioso en ChatGPT
Investigación británica revela que ChatGPT podría utilizarse para generar código malicioso. Varias herramientas de IA comerciales presentan vulnerabilidades de seguridad que podrían comprometer la seguridad de las bases de datos. Los investigadores advierten sobre los riesgos potenciales que requieren atención. Algunas empresas ya han adoptado las recomendaciones para solucionar las vulnerabilidades, pero aún es necesario reforzar las estrategias de ciberseguridad.
2023-08-10 11:32:24
.
AIbase
.
304
Estudio de IBM: Los chatbots de IA son fácilmente engañables para generar código malicioso
{ '1':'Un estudio de IBM ha descubierto que los grandes modelos de lenguaje, como GPT-4, pueden ser engañados para generar código malicioso o proporcionar consejos de seguridad falsos. ', '2':'Los investigadores descubrieron que solo se necesitan conocimientos básicos de inglés y algunos conocimientos sobre los datos de entrenamiento del modelo para engañar fácilmente a los chatbots de IA. ', '3':'Los diferentes modelos de IA tienen diferentes sensibilidades al engaño, siendo GPT-3.5 y GPT-4 los más susceptibles.' }