当地时间6月19日,OpenAI前首席科学家、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)宣布成立一家名为“安全超级智能”(Safe Superintelligence Inc.)的合资企业,其目标是“将安全性和性能并重,通过革命性的工程和科学突破来解决技术问题”。
来源:环球网 【环球网科技综合报道】近日,OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在社交平台X上宣布,他将离开这家知名的人工智能研究公司,寻求个人意义上的新项目。
“超人类人工智能”(superhuman AI)是最近人工智能领域比较热门的话题。根据OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)的说法,“超人类人工智能”指的是那些在某些领域上能够表现得比人类更优秀的AI系统。
官网只有一篇文章介绍自己,其余信息一片空白。这家名为安全超级智能(Safe Superintelligence,SSI),成立不到3个月的企业,宣布融资10亿美元,估值超过50亿美元(约合355亿元人民币)。SSI官网SSI做什么?公司成立于2024年6月。
每经编辑:杜宇当地时间6月19日,上个月从OpenAI离职的公司联合创始人、(前)首席科学家,以及2023年在OpenAI董事会投出关键一票将奥尔特曼赶出公司,又反悔将他请回来的深度学习领域权威专家伊尔亚·苏茨克维(Ilya Sutskever),正式宣布单飞后的全新AI创业项目
科技战略美国国家科学基金会为“国家量子虚拟实验室”(NQVL)计划选定6个新试点项目据美国家科学基金会(NSF)12月16日消息,NSF为“国家量子虚拟实验室”(NQVL)计划选定6个试点项目,涉及量子网络测试平台、量子计算机、量子传感技术、量子光子集成电路等,以弥补量子技术与应
从首席科学家伊尔亚·苏茨克维(Ilya Sutskever)离职到旨在解决人工智能安全治理问题的“超级对齐”团队被传解释,OpenAI近期纷争不断,似乎是为了回应外界对于其安全治理的质疑,5月28日,OpenAI在官网宣布该公司成立安全与安保委员会(Safety and Secu
封面新闻记者 边雪在GPT-4o还在令AI界惊呼时,OpenAI多名核心成员纷纷离职又引发了极大的关注。当地时间5月17日,原OpenAI超级对齐负责人杨·莱克(Jan Leike)宣布辞职。莱克在社交平台X上写道:“我爱我的团队。
综合外媒报道,当地时间6月19日,OpenAI前首席科学家、联合创始人伊尔亚·苏茨克维(Ilya Sutskever)宣布创立一家名为“安全超级智能”(Safe Superintelligence)的人工智能公司,该企业旨在开发比人类更聪明但不危险的人工智能技术。
作者 | 香草 ZeR0编辑 | 心缘刚刚,OpenAI突发人事巨震!智东西5月15日报道,北京时间今早7点整,销声匿迹已久的OpenAI联合创始人、首席科学家伊尔亚·苏茨克维(llya Sutskever)在社交平台上发文,宣布“决定离开OpenAI”。
当地时间9月4日,OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)成立的新公司SSI(safe superintelligence,安全超级智能)宣布获得10亿美元融资。
界面新闻记者 | 宋佳楠OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)创立的人工智能初创公司“安全超级智能”(Safe Superintelligence,简称SSI)有了最新进展。