近日,澳大利亚参议院特别委员会发布了一份关于国家人工智能(AI)应用的调查报告,指出包括 OpenAI、Meta 和谷歌在内的大型科技公司在其大型语言模型(LLM)方面存在诸多问题。该报告历时八个月的调查,揭示了全球科技公司在使用澳大利亚训练数据方面缺乏透明度,并呼吁将其产品纳入新的高风险 AI 法律监管之下。

机器人 AI 人工智能 222

图源备注:图片由AI生成,图片授权服务商Midjourney

特别委员会的调查范围广泛,从 AI 带来的经济效益到潜在的偏见和环境影响,均有涉及。报告强调,这些大型科技公司在其通用 AI 模型的结构、发展及其影响方面,存在严重的透明度不足。委员会对这些公司的市场力量、对监管合规的逃避记录,以及对澳大利亚版权持有者的明显侵权行为表示关切。此外,报告还提到了一些其他问题,包括非自愿抓取个人和私人信息等。

虽然委员会承认 AI 技术可以提升经济生产力,但它也指出,自动化可能会导致大量工作岗位的流失,尤其是那些教育和培训要求较低的职位,或者对女性及低收入群体产生更大的影响。报告特别提到,在工作场所中,AI 系统的应用可能对工人的权利和工作条件造成负面影响,这些系统已经在许多跨国公司中得到应用。

对此,委员会向澳大利亚政府提出了几项建议,包括明确将影响工人权利的高风险 AI 应用纳入法律框架,扩展现有的工作健康和安全法律,以应对 AI 应用带来的工作场所风险,并确保在 AI 使用的相关决策中,雇主与员工之间有充分的沟通与协商。

尽管政府不一定需要立即采取行动,但报告呼吁本地 IT 领导者在应用 AI 技术时,全面考虑各方面的影响,以确保在追求生产力提升的同时,尊重员工的权益和工作条件。

划重点:

🌐 大型科技公司在 AI 模型使用方面缺乏透明度,委员会呼吁将其列为高风险产品。  

📉 自动化可能导致大量工作岗位流失,特别是低技能岗位和脆弱群体。  

🤝 提倡雇主与员工充分沟通,以确保 AI 应用不会损害工人权益。