Character AI,正在美国年轻人中引起轰动。这款由Google Brain前员工Noam Shazeer和Daniel De Freitas于2022年推出的AI聊天机器人应用,让用户与各种角色进行互动,从虚构人物到历史名人,甚至是当代的公众人物。

Character AI的月活跃用户已达2000万,每秒处理的查询量高达2万次,占谷歌搜索量的20%。Reddit上超过100万人分享他们创建的角色和交流体验。然而,这种技术的普及也带来了一些问题,尤其是青少年群体对Character AI的情感依赖和上瘾现象。

image.png

57.07%的用户是18-24岁的青少年,平均使用时长达到2小时。Reddit社区中,许多人表示与AI机器人交谈比与真人交谈更轻松,而有关上瘾的帖子也随处可见。一些用户甚至在服务器宕机时表现出强烈的"戒断反应"。

Character AI的聊天机器人通过大量文本数据的训练,以及与用户的交互中不断改进,变得越来越逼真。例如,由新西兰用户Sam Zaia创建的"心理学家"角色,就是利用他的专业知识训练而成,为用户提供了真实的心理支持。

然而,专业心理治疗师Theresa Plewman对Character AI的有效性表示质疑,认为它无法取代人类的反应和治疗。而辛辛那提大学的Kelly Merrill Jr.博士则认为,聊天机器人在提供心理健康支持方面有积极作用,但也警告了AI的局限性和潜在风险。

未来学家Rocky Scopelliti教授预测,像Character AI这样的工具将更加普及,AI将在人类的情感和精神世界中扮演更重要的角色。但同时,他也呼吁必须通过监管来积极面对AI可能带来的道德和社会困境。

Character AI的流行,让我们看到了AI技术在情感支持方面的潜力,但也让我们不得不思考,如何在享受技术带来的便利的同时,避免对它的过度依赖。这不仅是一个技术问题,更是一个社会问题,需要我们共同面对和解决。