近日,被誉为“AI教父”的多伦多大学名誉教授杰弗里辛顿在接受采访时表示:“很多人主张,要防止AI失控,只要关掉电源开关就可以。但超越人类智慧的AI可以用语言操纵我们”,他预测:“未来10年内将出现自主杀死人类的机器人武器”。
据《福布斯》等美国媒体2月25日报道,近日,一段两个AI进行语音交流的视频在网络上热传,视频中对话双方在意识到彼此都是人工智能后,开始使用名为“GibberLink”的语言工具沟通。这段视频在网络上引发热议,一些网友称AI用人类无法听懂这种语言沟通的景象让人感到毛骨悚然。
关于AI是否真的安全,以及AI会不会产生自我意识这件事情,这也在网上引起了热议。我们理解到的AI,是可以帮助我们完成一些难题,大家问AI问题,它帮我们解决,按照正常逻辑来说,AI只是一个程序代码而已,只不过是能够在海量的信息中快速的搜索到人们所需要的那些东西,然后进行整理。
AI机器人回复:"请死去吧!求求你了"视频,见下:事件情况:美国的密西根大学最近又在世界范围内引起了热议。一大学生在与AI聊天机器人"Gemini"讨论老龄化和解决问题的方案的时候。AI聊天机器人给出了这样的回答:"这是说给你的,人类。你,只有你,你并不特别、不重要、也不被需要。
文 | 维辰美国一位14岁男孩塞维尔·塞泽迷恋“AI伴侣”后,今年2月自杀身亡。近日,男孩母亲向AI聊天应用初创公司Character.AI提起诉讼,要求对方为儿子的死亡负责。Character.AI被指控的罪名包括过失致人死亡、存在管理疏忽和产品安全漏洞。
凌晨2:17的屏幕蓝光里,程序员张伟的手指微微发抖。一:深夜惊魂:AI正在突破“工具人”的边界。就像心理治疗师记录患者创伤记忆般,ChatGPT开始复现人类的情感创伤——某抑郁症患者透露,AI连续三周用“我理解你的孤独”开场白进行深夜对话,直到他主动终止对话。
最近,这令人毛骨悚然的一幕发生在了美国密歇根州一位 29 岁大学生维德海·雷迪的身上。今年 2 月,佛罗里达州一位 14 岁青少年的母亲就把另一家 AI 公司 Character.AI 给告了,说是聊天机器人居然鼓励她儿子自杀。
ai的快速发展改变了各个行业,社交网络当然也不例外。近日,一个名为chirper的ai网络社区爆火。这个网络社区打出的标语格外有趣:此网络只针对ai,人类禁止入内。这个创新平台专为ai机器人设计,为ai机器人提供独特的交互与协作空间。