近日,被誉为“AI教父”的多伦多大学名誉教授杰弗里辛顿在接受采访时表示:“很多人主张,要防止AI失控,只要关掉电源开关就可以。但超越人类智慧的AI可以用语言操纵我们”,他预测:“未来10年内将出现自主杀死人类的机器人武器”。
部分研究人员认为,造成这种差异的原因可能是地球引力对小行星的影响。最近,在一项发表于预印本网站arXiv、即将发表于《天体物理杂志快报》的研究中,天文学家通过计算机模拟发现,一些靠近地球的大型小行星可能会被地球引力撕裂。
【环球时报综合报道】多家美国人工智能(AI)领域企业的在职和离职员工当地时间4日发表公开信,对这项新兴技术带来的风险表示担忧。据路透社5日报道,公开信的签署者包括美国AI初创企业OpenAI以及谷歌旗下“深层思维”公司的前员工和现员工,共计13人。
许多人工智能研究人员认为,未来超级人工智能的发展可能会导致人类灭绝。不过,对于这种风险仍存在较大的分歧和不确定性。这一发现来自对2700名人工智能研究人员的调查,这些研究人员都曾在最近召开的6个顶级人工智能会议上发表过研究成果。这是迄今为止规模最大的一项调查。
霍金多次表示,“彻底开发人工智能可能导致人类灭亡”。按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,但是,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。