生成式人工智能在聊天上的应用,也呈现出了“成瘾性”和“不确定性”的高风险特征。图/IC photo“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”随着生成式人工智能(AI)被率先应用在社交娱乐等领域,其不受限制与无法预知的互动内容,也正在引发新的问题。
“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”近日,有网友反映自己10岁的妹妹和“AI男模”之间聊天比较露骨。根据网友提供的聊天记录,妹妹在AI剧情聊天软件中扮演“大小姐”“恶毒女配”,提出诸如“揪住她的头发扇巴掌”“拿着刀划向她的脸”等要求。
“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”……《法治日报》报道,记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
每经记者:郑雨航 每经实习记者:宋欣悦 每经编辑:兰素英当地时间10月23日,据外媒报道,美国佛罗里达州的14岁少年塞维尔·塞泽(Sewell Setzer III)在与AI初创公司Character.AI的聊天机器人进行长时间对话后,于今年2月28日开枪自杀身亡。
□辛欣欣(青岛大学)“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
年满14岁的Sewell长期迷恋于AI陪伴产品中的虚拟角色,一天夜里,他扣下扳机,结束了自己的生命。Sewell的母亲随后将这款AI陪伴产品背后的公司告上法庭,要求其为小孩的自杀担责。Sewell使用的是Character.
举枪自杀(请勿模仿!)文|沧海旅行家编辑|沧海旅行家前言:AI发展越来越快,不光是作为工具,现在甚至已经出现了AI聊天机器人,不少人也接触过。但是最近在美国,竟然有一个未成年的小男孩在和一个AI聊天之后不久,就拿起手枪自杀身亡。那就让人好奇了,男孩到底和AI聊了什么?
1月7日9时许,西藏日喀则市定日县发生的6.8级地震,牵动着大家的心。但与此同时,一些网友为了博取流量制造关于震区的不实信息,在网络上公然传播,对公众造成误导。其中,有一张“被压在废墟下的小男孩”的图片在网上引发了广泛关注。
文 | 维辰美国一位14岁男孩塞维尔·塞泽迷恋“AI伴侣”后,今年2月自杀身亡。近日,男孩母亲向AI聊天应用初创公司Character.AI提起诉讼,要求对方为儿子的死亡负责。Character.AI被指控的罪名包括过失致人死亡、存在管理疏忽和产品安全漏洞。
11年前的美国电影《她》讲述社恐男爱上AI萨曼莎的故事,如今电影场景成为现实,在社交平台搜索“AI伴侣”,很多网友在分享自己与AI伴侣的日常,甜蜜之外,不少网友陷入失落和沉迷。近期举办的2024年世界互联网大会也热议了今年发生的“全球首例AI机器人致死案”。
如今,一些孩子与平板电脑或手机上各种AI软件中的机器人成了好朋友,不但与它们聊天,平时有解决不了的问题也会向机器人请教。而面对父母的关心和建议,孩子却置之不理,认为一些观点已经过时。教育界人士表示,AI软件已经进入孩子们的生活,在一定程度上给他们的成长带来了积极的影响。