每经记者:文巧 李孟林 谭玉涵 每经编辑:谭玉涵,卢祥勇3月29日,马斯克与上千名业内人士联名发表了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。这一呼吁得到了不少关注与回应,截至当地时间3月31日,已有超2300人签名。仅3天时间,签名人数已翻倍。
来源:环球时报 【环球时报报道 记者 曹思琦】大型语言模型GPT-4及其相关的人工智能(AI)技术应用最近在火爆全球的同时,也引起广泛担忧。意大利个人数据保护局4月6日称,聊天机器人ChatGPT的开发公司OpenAI向意大利当局提交补救措施,以解决监管机构的担忧。
·这是人工智能专家今年签署的关于AI风险的第三份重要声明,与之前两份不同的是,新声明是对各国政府询问“要做什么”的回答。·这篇文章提出,确保主要科技公司和公共投资者将至少三分之一的人工智能研发预算用于确保安全和合乎道德的使用,并呼吁制定国家和国际标准。
文/陈根日前,人工智能安全中心(Center for AI Safety CAIS)发布了一份由350位人工智能领域的科学家与企业高管联名签署的《人工智能风险声明》,其内容主旨为“降低人工智能导致人类灭绝的风险,应该与流行病及核战争等其他社会规模的风险一起,成为全球优先事项。
美剧《西部世界》和好莱坞电影《终结者》里曾描绘,人工智能的“觉醒”可能危及人类。最近,科幻片中的担忧照进现实,有不少人工智能业界“大佬”突然呼吁暂停开发更强大的AI系统,提出具有人类水平智能的AI系统可能“对社会和人类构成潜在风险”。
参考消息网2月23日报道据路透社2月21日报道,人工智能(AI)专家和业内高管——包括这项技术的开拓者之一约舒亚·本乔在内——已签署一封公开信,呼吁对深度伪造的内容加强监管,理由是其对社会构成潜在风险。这封信由加利福尼亚大学伯克利分校的人工智能研究员安德鲁·克里奇执笔。
350多名行业专家近日向美国国会发出一封联名签署的公开信,呼吁对人工智能(AI)进行紧急监管,将其当作“与瘟疫和核武器一样的全球优先事项”,以避免人工智能“带来灭绝风险”。最新的公开信只有22个字,由OpenAI首席执行官奥特曼发起。
这封被众多人工智能领域大佬发声支持的公开信,其实全文只有简短的一句话:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
每经编辑:黄胜,宋欣悦当地时间4日,13位来自OpenAI和Google的现任及前任员工联合发布了一封公开信,引发广泛关注。这些员工在信中表达了对人工智能技术潜在风险的严重担忧,并呼吁相关公司采取更加透明和负责任的措施来应对这些风险。
据英国路透社29日报道,包括马斯克和苹果联合创始人斯蒂夫·沃兹尼亚克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级人工智能的开发。这封信呼吁,所有人工智能实验室应立即暂停训练至少6个月。
据路透社29日报道,美国亿万富翁埃隆·马斯克和一群人工智能科技领域专家和企业高管在一封公开信中呼吁,在6个月的时间内暂停开发比OpenAI公司新推出的GPT-4更为强大的系统,理由是他们主张那会对人类社会构成潜在风险。
AI领域顶尖专家和图灵奖得主约书亚•本吉奥、特斯拉首席执行官马斯克等人千人联名签署公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。AI对人类究竟有风险吗?“人工智能在理论上是有可能毁灭人类的。
公开信链接:Pause Giant AI Experiments: An Open Letter - Future of Life Institute。内容如下:大量研究[1]表明并得到顶级AI实验室的认可,具有人类竞争智能的AI系统可能对社会和人类构成深远的风险。