本文刊载于《中国科学院院刊》2024年第11期专题“前沿科技伦理风险及其治理”张成岗1,2* 潘璐31 清华大学 社会科学学院 社会学系2 中国发展战略学研究会3 北京市社会科学院参与式伦理规约是强调多元主体的参与,旨在构建一个更全面、平衡的伦理治理方案。
然而,在这股浪潮汹涌向前的同时,一系列伦理道德和法律问题也如影随形,引发了广泛的关注和深刻的思考。本文将深入探讨人工智能与伦理道德的复杂关系,以及法律在其中所扮演的角色,带你走进这个充满挑战与机遇的领域,共同探寻科技与人性的平衡点。
【光明青年论坛】 编者按2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。
人工智能技术的大众化应用在给人们带来工作和生活便利的同时,也伴随着难以预测的伦理风险挑战,根据经济合作与发展组织发起组织的人工智能事件监测数据,仅2023年12月单月,人工智能伦理事件就达495件,伦理问题也反向制约着人工智能的健康发展。
人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。近几年的几场战争中已经有了像无人机这样的自动杀人机器。有的科幻电影里,也出现了这样的场景:那些自动杀人机器完全不考虑人的生命,他们会肆意杀人或四处破坏。
2023年07月03日 18:14人工智能的伦理风险如何监管?在《数字话》栏目第1期节目中,中国信息通信研究院云计算与大数据研究所所长何宝宏和嘉宾们探讨了这一问题。他表示,AI的伦理问题本质上是人的伦理问题。