举枪自杀(请勿模仿!)文|沧海旅行家编辑|沧海旅行家前言:AI发展越来越快,不光是作为工具,现在甚至已经出现了AI聊天机器人,不少人也接触过。但是最近在美国,竟然有一个未成年的小男孩在和一个AI聊天之后不久,就拿起手枪自杀身亡。那就让人好奇了,男孩到底和AI聊了什么?
“AI客服快把人逼疯了”,智能客服答非所问,人工客服排不上队 “我想在朋友生日当天再送货,可以帮忙联系快递员吗?”“不好意思,不确定您要表达的意思。”“可以帮我备注‘两天后再配送’吗?”“亲,这个问题难倒我了。”“我需要人工客服。
想找客服解决问题,聊了半天却发现对方是AI机器人……不少网友在社交媒体吐槽,如今想找一个真人客服,“比登天还难”。客服“鸡同鸭讲”“听不懂话”“浪费时间”是被吐槽较多的问题。“之前一键找客服,现在需要先听AI念800字小作文。”也有网友发问:AI到底是智能还是智障?
“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”近日,有网友反映自己10岁的妹妹和“AI男模”之间聊天比较露骨。根据网友提供的聊天记录,妹妹在AI剧情聊天软件中扮演“大小姐”“恶毒女配”,提出诸如“揪住她的头发扇巴掌”“拿着刀划向她的脸”等要求。