En una serie reciente de publicaciones en Threads, Adam Mosseri, jefe de Instagram, ha destacado la necesidad de que los usuarios de las redes sociales estén alerta ante el creciente contenido generado por IA.
Señaló que las imágenes y la información que los usuarios ven en línea pueden no ser reales, ya que la tecnología de IA ya es capaz de generar contenido que se asemeja mucho a la realidad. Para ayudar a los usuarios a determinar mejor la autenticidad de la información, Mosseri mencionó que los usuarios deben considerar la fuente del contenido, y que las plataformas de redes sociales también tienen la responsabilidad de apoyar esto.
Mosseri afirmó que el papel de las plataformas de redes sociales es etiquetar, en la medida de lo posible, el contenido generado por IA para ayudar a los usuarios a identificarlo. Sin embargo, también reconoció que es posible que se pase por alto algún contenido y no se pueda etiquetar a tiempo. Por ello, enfatizó que las plataformas también deben proporcionar información sobre el contexto del usuario que comparte el contenido, para que los usuarios puedan decidir mejor en qué medida confían en dicho contenido. Su perspectiva refleja una profunda preocupación por la credibilidad de la información en las redes sociales.
En la actualidad, Meta (la empresa matriz de Instagram) aún no proporciona suficiente contexto para ayudar a los usuarios a juzgar la autenticidad del contenido. A pesar de ello, la empresa ha insinuado recientemente que podría realizar importantes ajustes a sus normas de contenido. Este cambio podría mejorar la confianza de los usuarios en la información y ayudarles a afrontar mejor los desafíos planteados por la tecnología de IA.
Mosseri mencionó que los usuarios deben verificar la fiabilidad de la información proporcionada por los chatbots antes de confiar en los motores de búsqueda impulsados por IA. Esto es similar a verificar la fuente de una publicación o imagen; sólo la información procedente de cuentas de confianza debe considerarse fiable.
La forma de regular el contenido descrita por Mosseri se asemeja más a un sistema de revisión dirigido por los usuarios, como las notas de la comunidad en Twitter o los filtros de contenido de YouTube. Si bien no está claro si Meta introducirá funciones similares, dado el historial de la empresa de tomar prestadas ideas de otras plataformas, su futura política de gestión de contenido merece atención.
Puntos clave:
🌐 Los usuarios de las redes sociales deben estar alerta ante el contenido generado por IA y prestar atención a la fuente del contenido.
🛡️ Instagram se esforzará por etiquetar el contenido generado por IA y proporcionar información sobre el contexto del usuario.
🔍 Meta planea realizar ajustes importantes a sus normas de contenido para mejorar la transparencia y la fiabilidad de la información.