近日,随着AI技术的广泛应用,一些不法分子开始利用AI技术实施新的网络诈骗。国家金融监管总局发布消费者权益保护风险提示,提醒公众要警惕利用AI“拟声”和“换脸”技术进行的新型诈骗手段。“拟声”可利用AI合成他人声音,“换脸”可用AI伪造他人脸部图像。这两种手段制作的音频、视频和图片非常逼真,可用来冒充熟人进行诈骗。金融监管部门提醒公众在网上交流时注意保护个人信息,避免过多暴露,发现可疑情况要及时报警。同时,相关部门也需加大监管力度,采取有力措施打击这类新型网络诈骗犯罪。