作者:方师师(上海社会科学院新闻研究所副研究员);叶梓铭(上海社会科学院新闻研究所硕士研究生)来源:《青年记者》2024年第10期导 读:本文基于上世纪50年代至今全球范围内1617篇人工智能伦理治理文档,对人工智能的伦理治理开展全景梳理。
随着人工智能技术前所未有的颠覆性创新发展,人类社会的发展已迈入新的智能时代。人工智能的发展越来越接近人类的智能程度,甚至有超越人类智能的趋势,人机关系呈现复杂性的趋紧状态,人类需要直面人工智能带来的伦理方面的新挑战。
□杨瑞鑫(郑州大学)近日,英国男子休·尼尔森因利用人工智能制作儿童性虐待图像被判处18年监禁,这是英国首次就此类行为定罪。如今,AIGC、自动驾驶及生物识别等人工智能技术在我们生活中的应用场景日益丰富,带给我们极大的便利,然而其技术的滥用和潜在风险也逐渐显现,带来诸多伦理挑战。
今年的政府工作报告指出,我国要持续推进“人工智能+”行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用,大力发展智能网联新能源汽车、人工智能手机和电脑、智能机器人等新一代智能终端以及智能制造装备。
雷军说,被网友吐槽的“去年国庆假期7天被‘AI雷军’骂了8天”,他想维权却无法量化损失;靳东说,喜欢他影视剧的观众被AI换脸骗得很惨,希望建立更好的规则;周鸿祎说,大模型都会存在“幻觉”,但应该对它多些包容,柔性监管。2025年全国两会期间,人工智能一直是最受关注的话题之一。
从底线伦理视角能够发现人工智能繁荣发展背后存在的危险性。支撑人工智能训练的算法风险、人工智能产生的侵权责任风险、人工智能背后平台权力的膨胀风险都给底线伦理带来挑战。我国目前人工智能的治理规则已成体系,也体现了对伦理的保护,但依然存在治理局限。
人工智能伦理:我们如何塑造机器的道德观?人工智能伦理:我们如何塑造机器的道德观?引言:人工智能发展带来的伦理道德新挑战。随着人工智能技术的飞速发展,其在社会各领域的广泛应用不仅带来了效率和便利,也引发了一系列伦理道德问题。
本文刊载于《中国科学院院刊》2024年第11期专题“前沿科技伦理风险及其治理”张成岗1,2* 潘璐31 清华大学 社会科学学院 社会学系2 中国发展战略学研究会3 北京市社会科学院参与式伦理规约是强调多元主体的参与,旨在构建一个更全面、平衡的伦理治理方案。
在人工智能技术的迅猛发展背景下,其对社会和政治的影响日益显著。全球科技巨头如亚马逊、苹果、DeepMind等已建立合作伙伴关系,致力于探索人工智能的最佳实践、推动研究并促进公共对话。然而,依赖私营企业和非政府实体来监管人工智能存在潜在风险。
2024年10月17日,世界瞩目的诺贝尔奖终于揭晓了新一年的名单,获奖者使得全球科学界为之震动:诺贝尔物理学和化学奖得主均与人工智能紧密相关。这直观地揭示了人工智能在现代科学研究中所处的关键性地位,也进一步引发了关于人工智能的广泛探讨。