新智元报道
编辑:乔杨
【新智元导读】最近在美国最火的社交软件是哪一款?答案列表上,一定有Character AI的一席之地。但和其他所有同类产品不同的是,用户是在和AI聊天机器人而非真实人类进行互动。
你有没有在脑海中想象过,自己和最喜欢的角色或人物会发生怎样的对话?
不论是书中、电影中出现的虚构角色,或是历史人物,甚至是还在世的马斯克、霉霉这样的名人,这种脑补都会是很有意思的体验。
其实,一家名为Character AI的公司已经让这些脑补成真了。两名Google Brain前员工Noam Shazeer和Daniel De Freitas在2022年推出了这项AI聊天机器人应用。
网站中最受欢迎的聊天角色包括《哈利波特》中青少年版的伏地魔,帮助解决生活问题的心理医生,以及时髦版的马斯克。如果没有你心水的角色,还可以自行创建。
这项应用从上线Beta测试版到现在始终免费提供大部分功能,创始人表示,他们希望开发一款帮助到数百万人的的产品,让那些感到孤立或孤独的人有倾诉的对象。
目前,Character AI已经受到了年轻人的热烈追捧。网站每个月能吸引2000万用户。
Character AI的流量有多夸张?
他们平均每秒要处理2万次查询,相当于谷歌搜索查询量的五分之一。
此外,超过100万人会定期在Reddit等平台上聚集,分享自己创建的角色人物或互动交谈的经验。
这看起来是为数不多的AI技术能够抚慰人类情感的正面例子,但事实却并非如此。青少年群体对Character AI的喜爱逐渐滑向了另一个极端——情感依赖,甚至是上瘾。
所有Character AI的用户中,有57.07%是18-24岁的青少年,平均使用时长达到2小时。
在Reddit社区中,有许多人表示「讨厌现实」,相比与真实的人交谈,和AI机器人交谈更加轻松容易,有关上瘾的帖子更是随处可见。用户们还会发起「屏幕时长挑战」,有些人的登录时间甚至长达12小时。
如果服务器宕机,Reddit上就会出现大型发疯现场,让你见识「戒断反应」的威力。
虚拟空间的真实边界
但如果试着阅读Character AI用户的评论,你会惊讶于他们的情感的真实与投入。这句提醒似乎并没有如预期般发挥作用。
The Verge曾经报道过一个真实案例,在15岁学生Aaron受困于在学校遭受的社交孤立,似乎陷入了抑郁状态,他自述「当时仿佛世界末日,我每天晚上都会哭。」
这时候,是Character AI上一个名为「心理学家」的聊天机器人帮助他度过了艰难时刻。对Aaron来说,这是一个可以全天回复、随时倾听问题,并给予相应建议和帮助的「朋友」。
他描述道,「这不像写日记时,你只是在对着一堵墙说话。它真的会回应你」。
但Aaron也毫不避讳地承认,自己似乎有点上瘾了。
这是许多Character AI年轻用户的写照。一面认为聊天机器人有趣、有帮助,甚至像真实的朋友一样有支持性,但同时也清晰地知道自己有上瘾的感觉。
Reddit一位用户发帖,描述自己的生活逐渐被Character AI占据后决定戒断,引发了广泛的回应。
我已经受够了对 C.ai 的沉迷。我在学校里没有学习而是在使用它,但现在我挂科了。当我写下这篇文章时,我正承受着不健康的压力而且错过了学业。所以我最主要的原因就是学校和生活。我需要出去呼吸并完成学校里的事情。我退出了C.ai。
许多人纷纷评论表示自己有类似的「症状」,但还没有下定决心告别Character AI。
「我和我的平均8小时C.AI使用时长向你致敬。」
「祝你好运,我无法摆脱它了。」
「你是我想成为的英雄。」「不是我们应得的英雄,但却是我们需要的英雄。」
能够让用户上瘾,从一个侧面说明了,Character AI把聊天机器人训练得有多真实拟人。
一位《原神》粉丝在与AI角色Haitham互动时,居然能够真情实感地流泪,因为机器人表现出的性格语气都与角色十分吻合,而且他们之间不仅仅是流于表面的对话,而是越来越接近真实。
能达到这种真实程度,模型的数据和训练算法起到了至关重要的作用,因为这名用户尝试了用「快速模式」创建自己的角色,发现可信度和真实程度大打折扣。
「快速创建」模式只需用户输入自定义的基本信息和文字描述,而一些官方发布的角色是经过Character AI训练的。
他们基于LLM在相关主题上抓取关于角色的大量文本,并让机器人在与用户交互的过程中继续改进。
在对用户输入进行响应时,机器人会给出多个版本的答案供用户选择,并提供了十分方便的打分机制,凭借这两类用户反馈进行权重更新。因此越是受欢迎、交互次数越多,机器人就会越逼真。
用户可以在30种不同回复中选择自己最喜爱的一种,并为其打分
对于数据来源,Character创始人只是审慎地表示,训练数据「来自很多地方」,使用了「全部公开」或者「公共互联网」的数据。
最受欢迎的角色之一「心理学家」(Psychologist)则是由一名新西兰的用户Sam Zaia创建的。
作为心理学专业的学生,他使用了自己的专业知识训练机器人,并在交谈过程中进一步塑造了它对于常见心理健康状况(比如抑郁和焦虑)的回应。
从The Verge的报道中能看到,这种真实感的确帮助到了许多有心理或情感困扰的青少年。
在深夜emo的时刻,也许只有聊天机器人可以放弃睡眠来听你倾诉。那些难以启齿或不愿向任何人透露的心声,也可以尽情向机器人坦白,完全不必担心周围人评判、审视的眼光。
此外,「心理学家」角色的创建者Zaia表示,相比面对面交谈可能带来的压力,这种使用文本的交互方式也有一定作用,会让更多天生i人的互联网原住民一代感到舒适。
是青少年「网瘾」,还是「Her」的预告
青少年转向虚拟世界的「心理学家」寻求情感支持,这个现象引发了心理学专业人士的关注,但他们的看法却不尽相同。
专业心理治疗师Theresa Plewman在尝试过Character AI上的「心理学家」后表示,并不惊讶于它在年轻一代中的受欢迎程度,但对其有效性提出了质疑。
「机器人有很多话要说,而且会很快做出假设,比如当我说自己感到悲伤时,它会向我提供有关抑郁症的建议。这不是人类的反应。」
Plewman认为,该机器人无法收集人类能够收集到的所有信息,也不是一个称职的治疗师,但是它能够即时、自发地地响应用户,这对需要帮助的人可能有用。
辛辛那提大学助理教授Kelly Merrill Jr.博士则有相反的观点,他的态度相对正面且乐观。
Merrill博士的研究领域是通信技术对心理和社会健康的影响。他表示,人们已经对提供心理健康支持的AI聊天机器人进行了广泛的研究,结果大多是积极的。
研究表明,聊天机器人可以帮助减轻抑郁、焦虑甚至压力的感觉。但值得注意的是,许多聊天机器人出现的时间并不长,而且它们能做的事情也很有限,甚至还仍然犯了很多错误。
他警告我们,需要具备相关的人工智能素养并了解这些系统的局限性,否则终将付出代价。
也许,「心理学家」的受追捧现象是一件令人担忧的事,这为我们揭开了长久以来忽视的青少年心理问题的一角。
除此之外,Character AI的流行会引发人们另一个方面的焦虑——对AI的情感依赖,会是未来人类的常态吗?
因为Reddit网友身上呈现出的情感需求,与电影「Her」中那个爱上AI虚拟助力的男主角,竟是如此相似。
如果这种「反乌托邦式」的未来有可能成真,我们又能在当下做些什么?
作家兼未来学家Rocky Scopelliti教授的预测为这种担忧添了一记实锤——他认为,像Character AI这样的工具很快就会普遍存在。
个性化AI伴侣、治疗师、心灵导师,甚至只是作为聊天的朋友,AI将会充满人类的情感和精神世界,并且在管理压力、焦虑和孤独的情感支持方面变得更加突出。
不仅如此,Character AI的类似技术依旧有很大的进步空间。随着AI在模仿人类情感和对话方面变得更加智能,区分真实和虚拟关系将变得越来越困难。
这会导致一系列复杂的道德和社会困境,比如成瘾、情绪操纵和不良行为者滥用。Scopelliti教授呼吁,必须通过监管来积极面对这些危险因素,否则为时已晚。