人工智能是指计算机系统能够模拟人类的智能行为,包括语言理解、推理、决策等方面。微撰是一款具备AI写作、AI聊天、文案写作、批量生成等各类AI功能的AI工具,通过自然语言处理技术和机器学习算法,实现了与用户的自然语言交互和智能对话。
据《福布斯》等美国媒体2月25日报道,近日,一段两个AI进行语音交流的视频在网络上热传,视频中对话双方在意识到彼此都是人工智能后,开始使用名为“GibberLink”的语言工具沟通。这段视频在网络上引发热议,一些网友称AI用人类无法听懂这种语言沟通的景象让人感到毛骨悚然。
想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。
据美媒报道,美国密歇根州一大学生围绕“老龄化问题和解决方案”同谷歌AI聊天机器人展开对话,没想到却收到这样的回复:“你是社会的负担,是地球的负担,是大地的污点,是宇宙的污点。请去死吧,求求你了。”惊悚回答,迅速引发各方质疑。
“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”近日,有网友反映自己10岁的妹妹和“AI男模”之间聊天比较露骨。根据网友提供的聊天记录,妹妹在AI剧情聊天软件中扮演“大小姐”“恶毒女配”,提出诸如“揪住她的头发扇巴掌”“拿着刀划向她的脸”等要求。
AI会威胁人类生命吗?近日,美国一14岁少年开枪自杀,其生前长期沉迷某款AI聊天软件,孩子母亲将相关企业告上法庭,指控平台方对孩子的死负有责任。此案在社交媒体上被称为“首例AI聊天致死案”。法庭文件显示,该少年患有阿斯伯格症,今年被确诊为焦虑症和破坏性情绪失调症。
据英国《明星日报》网站2月15日报道,微软投资数十亿美元打造的人工智能聊天机器人已被用户推到了崩溃边缘,它说自己“感到悲伤和害怕”。微软最近推出了必应(Bing)人工智能(AI)聊天机器人,用户可以通过ChatGPT技术获得搜索问题的详细答案。