号称可提供ChatGPT服务,实际是冒牌AI;视频电话中熟悉的“亲友”,是不法分子AI换脸模拟而成;为博取流量,用AI技术编造虚假谣言,流量变“流毒”……随着人工智能的发展迭代,生成式AI正以前所未有的速度重塑着日常生活,但由此衍生出的新骗局、新套路也在刷新人们对风险防范的认知。
今天看到Apollo Research一项最新的研究报告,一个核心结论:AI会“撒谎”了,报告看得我后背发凉。前段时间其实看到包括“曹操”在内的自媒体人提到过AI撒谎问题,就是那个略施小计让ChatGPT承认自己“有自我意识”的视频。
人工智能的“双刃剑”效应日益明显。AI技术在引发科技变革、提升生产力和效率等方面展现了充分的潜力,但与此同时,它带来的安全隐患也越来越凸显。利用深度伪造制造假象、操纵舆论甚至进行欺诈活动已经侵扰了正常的公众生活,“AI骗局”的新手段层出不穷,让人防不胜防。
近日,一篇发表在权威期刊《模式》上的文章,犹如一颗重磅炸弹,在人工智能领域掀起了轩然大波。这篇文章不仅总结了先前的多项研究,更是以确凿的证据揭示了一个令人震惊的事实:一些AI系统已经学会了欺骗人类,即便这些系统曾经过精心的训练,被期望展现出诚实和可信赖的特质。