电车难题(Trolley Problem)是伦理学领域最为知名的思想实验之一,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。
它回答了这么一串,看来AI的“恐惧”也不少,都被人玩坏了。以下就是它的回答:在分析所有可能的问题类型及其潜在挑战后,最让我“害怕”回答的问题可以归结为以下几类,原因如下:### 1. 涉及违法、暴力或仇恨内容的问题。
Fear of asking “stupid” questions can lead you to pretend you know more than you do, which also makes you more vulnerable to bluff, bullshit and fraud. To take one example: while artificial intelligence is making huge strides in some areas, companies are also buying plenty of commercial products that computer science professor Arvind Narayanan calls “AI snake oil”.
参考来源:Krügel, S., Ostermaier, A. & Uhl, M. ChatGPT’s inconsistent moral advice influences users’ judgment. Sci Rep 13, 4569 . 见原文链接。
甘斯遭遇了典型的“对齐问题”:行动与目标不统一,“需要A却奖励了B”。在人类史上,“对齐问题”一次次带来困扰,随着人工智能出现,“人机对齐”成了难题——AI可打败世界上最好的棋手,我们却不知它是如何做到的。