BeFake 是一款 AI 增强社交网络的 App,鼓励用户使用 AI 将日常照片转化为奇幻场景,并通过分享创作的 AI 作品与朋友联系。该应用在用户界面、功能和信息流设计上都非常友好,用户可以自由探索和分享 AI 生成的图片。BeFake 已获得 300 万美元的融资,并在多个国家的 App Store 上取得了成功。
BeFake 是一款 AI 增强社交网络的 App,鼓励用户使用 AI 将日常照片转化为奇幻场景,并通过分享创作的 AI 作品与朋友联系。该应用在用户界面、功能和信息流设计上都非常友好,用户可以自由探索和分享 AI 生成的图片。BeFake 已获得 300 万美元的融资,并在多个国家的 App Store 上取得了成功。
随着人工智能技术的迅猛发展,AI 生成的文本、图像和视频在各个领域的应用日益成熟。然而,这也伴随着信任危机的出现,虚假信息的传播对社会造成了潜在的威胁。为了应对这一挑战,腾讯于近日推出了一款全新的 AI 生成内容检测工具,旨在通过 AI 技术 “打假 AI”。这款工具由腾讯的朱雀实验室研发,分为 AI 生成文本检测和 AI 生成图像检测两个系统。腾讯官方指出,尽管 AI 生成的图像在外观上愈加真实,但仍然存在一定的可识别性。通过对上传图像进行几秒钟的快速验证,用户可
苹果公司近日推出了一项名为 AI 新闻摘要的新功能,但这一功能在总结突发新闻时却频频出现严重失误,导致用户接收到大量虚假信息。自从该功能推出以来,许多新闻机构和用户都对其表示了强烈的不满,认为苹果的技术尚未成熟,不能有效地提供准确的信息。有报道称,华盛顿邮报的科技专栏作家 Geoffrey Fowler 在社交媒体上发文,指出苹果 AI 在一则新闻摘要中将正在进行确认听证会的国防部长候选人 Pete Hegseth 错误地描述为已被福克斯新闻解雇,此外还错误地声称佛罗里达州参议员 M
近期,纽约大学的研究团队发表了一项研究,揭示了大规模语言模型(LLM)在数据训练中的脆弱性。他们发现,即使是极少量的虚假信息,只需占训练数据的0.001%,就能导致整个模型出现重大错误。这一发现对于医疗领域尤其引人关注,因为错误的信息可能直接影响患者的安全。图源备注:图片由AI生成,图片授权服务商Midjourney研究人员在《自然医学》杂志上发表的论文中指出,虽然 LLM 表现出色,但如果其训练数据中被注入了虚假信息,这些模型依然可能在一些开放源代码的评估基准上
据美联社报道,随着生成式人工智能(AI)工具的兴起,商家、服务提供商和消费者正面临前所未有的挑战。这些工具能够让人们高效地生成新颖且详尽的在线评论,几乎无需任何人工操作,导致虚假评论问题愈发严重。报告指出,虚假评论长期以来一直困扰着亚马逊和Yelp等知名电商平台。这些评论通常在私密的社交媒体群组中交易,由虚假评论经纪人和愿意付费的商家之间进行。有时,商家还会通过提供礼品卡等奖励来鼓励顾客撰写正面评价。然而,以OpenAI的ChatGPT为代表的AI文本生成工