1月17日,成都产业集团下属国家超级计算成都中心举行"数启新篇·算领未来"2024年度用户大会。大会汇聚了来自政府部门、科研院所及企业界的百余位领导专家及用户代表,深入探讨了高性能计算在科技创新中的赋能作用,共同探索超算融合领域创新发展之路。
界面新闻记者 | 肖芳6月15日,搜狗创始人王小川的新公司百川智能推出了70亿参数量的中英文预训练大模型——baichuan-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Scope平台发布。
7月28日,由成都市科学技术局、成都市经济和信息化局市新经济发展委员会指导,国家超级计算成都中心(以下简称国家超算成都中心)、中国地震局地球物理研究所主办的“国家超级计算成都中心、中国地震局地球物理研究所以及清华大学联合开发的谛听大模型发布会”在国家超算成都中心举行。
界面新闻记者 | 赵一帆界面新闻编辑 | 宋佳楠作为对OpenAI闭源决策的直接反击,马斯克选择开源全球最大参数的大语言模型。 当地时间3月17日,马斯克旗下的人工智能初创公司“xAI”正式开源其大模型Grok-1。
xAI成了更“open”的AI。当地时间3月17日,特斯拉CEO埃隆·马斯克旗下的人工智能初创公司xAI正式宣布开源大模型Grok-1,遵循Apache 2.0协议开放模型权重和架构。官网显示,xAI已经将Grok-1的权重和架构在软件托管平台GitHub上开源。
9月7日,在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相。腾讯集团副总裁蒋杰介绍,混元大模型参数量超千亿,具备多轮对话能力,内容创作能力,逻辑推理能力,搜索增强和知识图谱。训练数据更新至今年7月份,未来会不断更新迭代。
2012年AlexNet模型的出现引发学术界对人工神经网络的高度关注,其利用多层次的CNN结构作为人工神经元,在ImageNet竞赛中实现了超过第二名10%以上准确率的绝对优势,开启了基于人工神经网络的深度学习时代。
2021 年初 Google 的 Switch Transformer 模型采用了相同的混合专家系统架构,参数量已达到 1.6 万亿。Q3:和 deep speed Metro LM 相比,Colossal-AI 最大的技术优势是什么?
本报记者 秦枭 北京报道作为当前全球科技发展的重要专项,人工智能也是我国的重要战略先导机遇。随着大模型等技术迎来商业化应用,全球各国都在孵化和孕育各类通用的行业大模型。不过,相较于此前一窝蜂扎进通用大模型,如何基于大模型研发针对行业细分领域的垂直的模型受到更多的关注。
2020 年,通过增加大模型参数量的方法,OpenAI 在具有 1750 亿参数量的 GPT-3 上发现,大模型可以根据提示词中提供的信息,来执行新任务或改进现有任务。随后他们趁热打铁,一起研究能否使用上下文学习,来替代成本高昂的指令微调方法。
中央财经大学中国互联网经济研究院副院长欧阳日辉在接受中国经济时报记者采访时表示,人工智能重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。
Transformer模型在Google团队2017年论文《Attention Is All You Need》中被首次提 出,Transformer的核心优势在于具有独特的自注意力机制,能够直接建模任意距离的词元之间的交互关系,解决了循环 神经网络、卷积神经网络等传统神经网络存在的长序列依赖问题。
北京智源人工智能研究院院长王仲远新京报贝壳财经讯(记者陈维城)7月3日下午,在2024新京报贝壳财经年会“‘通’往未来,向新有AI”论坛上,北京智源人工智能研究院院长王仲远介绍,以2023年作为新的拐点,大模型从实验室走向产业为标志,有可能推动人工智能向通用人工智能方向演进。