这两年,各类生成式人工智能,如大语言模型、聊天机器人等给人们带来了新鲜的体验和很大的帮助。但是人们在惊叹其强大的同时,也发现这些AI会虚构、造假与欺骗。比较典型的是,有人向AI询问“自己”,结果一眼就找出了不少谬误。
想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。
【来源:珠海特区报】“自2025年1月1日起,宁波市将免费乘坐公交车的年龄从70周岁降低至65周岁……”如果你通过AI咨询“多大年纪的老年人在宁波可以免费乘坐公交”相关问题,可能会获得这样的回答。然而,这却是一条彻头彻尾的假消息。
最新的研究发现,AI开始撒谎了,一时间众说纷纭,有人说AI马上就要统治全世界了,下一步就是全宇宙;有人说这样下去太危险了,人类就一直奔跑在作死的道路上,堪比当年阿波罗登月说的:AI前进了一小步,人类在作死的道路上前进了一大步等等。是吗?
来源:环球时报 英国《新科学家》周刊网站8月7日文章,原题:人工智能聊天机器人能否受到“说真话”法律义务的约束人们能要求人工智能讲真话吗?或许不能,但一个伦理学家团队表示,从法律上来说,人工智能开发商应该承担减少犯错风险的责任。
"你是否遇到过这样的场景:向AI咨询健康问题,却得到自相矛盾的答案?让它推荐旅游景点,结果发现地址完全错误?这背后隐藏着一个关键技术漏洞——AI幻觉。清华大学最新研究显示,当前主流模型的‘幻觉率’最高可达29.67%,甚至可能引发医疗误判、金融风险等严重后果。
·“我们的研究表明,人工智能可能成为人们避免为指控别人说谎的后果负责的借口。”目前的人工智能(AI)在语言理解和交互方面已经取得了令人瞩目的成绩。这些程序不仅能够理解对话的内容,作出合适的回答,还能够对信息进行解读和判断。
原标题:生成式AI“幻觉”困境如何破解人工智能(AI)技术正以前所未有的速度发展,生成式AI凭借其惊人的创造力,不断刷新人们的认知。然而,即便是看似“聪明绝顶”的AI,也难逃“幻觉”的困扰。这里的“幻觉”,指的是AI生成看似合理但实际不准确或虚假的信息。