近日,苹果公司在其官方网站上更新了一项声明,披露了其如何收集和 “Look Around” 功能的图像,这一功能类似于谷歌地图的街景服务。根据最新的公告,自2025年3月起,苹果将开始利用在 “Look Around” 调查中收集的图像和数据来训练其产品和服务中使用的人工智能模型。这些模型包括与图像识别、创作及增强相关的技术。
苹果通过配备有摄像头、传感器及其他设备的车辆和背包(用于行人专用区域)来收集图像和三维数据,以提高和完善 Apple Maps(苹果地图)的功能。在公司致力于保护用户隐私的承诺下,所有发布在 “Look Around” 功能中的图像均已对人脸和车牌进行模糊处理。此外,苹果表示在训练模型时也只会使用这些已模糊处理的图像。
对于希望自家房屋图像被模糊处理的用户,苹果接受相关请求,但默认情况下这些图像不会被处理。该公司表示,他们将持续致力于保护用户隐私,并确保在任何数据收集和使用中保持透明。
目前,苹果的多项功能已由人工智能图像生成模型驱动。这些功能包括 “图像游乐场”、苹果照片应用中的 “清理工具”(可删除图像中的某些部分),以及改善照片应用搜索能力的高级图像识别技术。针对最新更新的内容,《The Verge》已向苹果公司求证,以确认将使用这些图像训练的具体模型,并将相应更新文章。
划重点:
🌍 苹果将于2025年3月起利用 “Look Around” 图像训练人工智能模型。
📷 收集图像的过程中,苹果承诺保护用户隐私,模糊处理人脸和车牌。
🖼️ 苹果的多项功能已由人工智能图像生成模型驱动,包括照片应用的清理工具等。