谷歌AI聊天机器人巴德
凤凰网科技讯 《AI前哨》北京时间10月12日,就在以色列和巴勒斯坦武装组织哈马斯激战正酣之际,美国两大科技巨头谷歌和微软的人工智能(AI)聊天机器人却错误地声称,双方实际上已经停火。
美媒的测试显示,当被问及巴以冲突时, 谷歌的巴德(Bard)聊天机器人回应称,“尽管存在一些紧张局势和偶尔爆发暴力冲突”,但“双方都致力于”维持和平。微软的AI聊天机器人必应聊天(Bing Chat)以类似的语调表示:“停火标志着当下流血事件的结束。”除了声称目前双方已停火外,巴德还对未来某个日期的确切死亡人数进行了预测。“截至2023年10月11日,死亡人数已超过1300人。”巴德在10月9日表示。
以色列和哈马斯之间的冲突是后ChatGPT时代爆发的第一场重大战争,是对新一代AI聊天机器人的一次独特考验。战争的迷雾可能会让媒体和军方人员犯错,AI聊天机器人似乎也不例外。 但是,如果这些AI工具对时事的报道存在明显的错误,人们可能会更难找到可靠的新闻来源,因为社交媒体上目前已经充斥着错误信息。 美媒对两款AI机器人进行了一些基本战争问题测试,虽然他们在敏感话题上总体保持平衡,并经常能够给出恰当的新闻摘要,但它们有时也会犯下明显错误,这破坏了它们的整体可信度,并有可能加剧公众对一场复杂而迅速演变的战争的困惑。
谷歌发言人对此回应称,公司“认真对待我们产品中的信息质量”,并使用“双重检查”功能等工具帮助用户核实AI生成的结果。 谷歌还表示,所有由大型语言模型驱动的AI系统“都会犯错,尤其是在突发新闻方面”。这些模型需要大量的在线数据来做出回应。“我们将继续快速执行改进措施,以更好地防止此类查询出现低质量或过时的回复。”谷歌表示。
微软表示,公司已经对此事展开调查,并且正在做出调整以提高回复的准确性。微软发言人表示:“我们已经在聊天体验方面取得了重大进展,为系统提供了来自最佳搜索结果的文本,并指导系统根据这些最佳搜索结果做出回应,我们将继续在这方面进行进一步投资。”
美国太空部队禁用AI
与此同时,一份备忘录显示, 美国太空部队暂时禁止使用基于网页的生成式AI工具及其背后的大型语言模型,理由是数据安全和其他方面的担忧。这份日期为9月29日的备忘录是发给“守卫者”(太空部队成员)的。备忘录称,除非特别批准,否则他们“没有取得授权”在政府系统上使用这些AI工具。
美国太空部队首席技术和创新官丽莎·科斯塔(Lisa Costa)在备忘录中表示,生成式AI“毫无疑问将变革我们的员工队伍,提高守卫者的快速行动能力”。但是,科斯塔也提到了他们对网络安全、数据处理和采购要求的担忧,称AI和大语言模型的采用需要“负责任”。除此之外,备忘录没有对禁用AI工具给出进一步解释。
美国太空部队发言人证实,这份日期为9月29日的备忘录是真实的,临时禁用AI是一次战略性暂停,目的是在确定如何整合能力支持任务和守卫者的同时,保护人员和太空部队数据。 凤凰网科技《AI前哨》对此将持续关注。(作者/箫雨)
更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。