赶在 Google I/O 大会之前,5 月 14 日凌晨,OpenAI 发布了一个新模型——GPT-4o。事实上,在不到 30 分钟的发布会中,最为人津津乐道的不是 GPT-4o 这个模型自身,而是在 GPT-4o 的支撑下,ChatGPT 的交互体验。
多年来,人工智能模型已经能够查看图片并告诉我们它们在图像中看到了什么,但随着春季更新,OpenAI 将事情提升到了一个全新的水平。随着 GPT-4o 在 ChatGPT 中的推出——即使没有语音和视频功能——OpenAI 也推出了迄今为止最好的 AI 视觉模型之一。
每经记者:蔡鼎 每经编辑:兰素英美西时间5月13日(周一),OpenAI首席技术官Mira Murati在备受期待的直播演示中宣布,推出名为GPT-4o的新旗舰AI模型,这是其已经问世一年多的GPT-4模型的更新版本。
新闻8点见,多一点洞见。每天早晚8点与你准时相约,眺望更大的世界。北京时间5月14日凌晨,OpenAI发布了新一代旗舰生成模型GPT-4o。可毫秒级响应、能读懂用户情绪等新功能引发了网友热议,在科幻中的智能助理即将走入现实世界?“我第一次来直播的发布会,有点紧张。
21世纪经济报道记者孔海丽 实习生邓熙涵 北京报道 酷暑到来之前,OpenAI提前引爆了AI之夏。北京时间5月14日凌晨1点,OpenAI举行春季发布会。会上,重点推出新旗舰模型GPT-4o,以及在ChatGPT中免费提供更多功能。GPT-4o在多模态交互领域开始了现象级横扫。
1GPT-4o啥意思?时间5月14日凌晨,OpenAI举办线上“春季更新”活动,发布新旗舰生成式AI模型GPT-4o。GPT-4o中的“o”代表Omni,在英语中“Omni”常被用作词根,用来表示“全部”或“所有”的概念,也可以被理解为“全能”。
来源:环球网 【环球网科技综合报道】北京时间5月14日凌晨,全球领先的AI研究公司OpenAI通过一则简短的视频介绍,正式发布了其最新一代的AI模型GPT-4o。这一模型实现了音频、视觉和文本推理的实时交互,标志着人工智能技术的又一重要进步。
来源:环球时报 【环球时报特约记者 谢昭 环球时报记者 刘扬】美国人工智能公司OpenAI于14日凌晨正式推出新一代人工智能(AI)模型GPT-4o,美国有线电视新闻网(CNN)注意到,它的最突出特点是在与人的交互方面更为自然。
中新网5月14日电(中新财经 吴家驹)不是GPT-5,而是GPT-4o。北京时间5月14日,研发ChatGPT的OpenAI公司,推出了具备“听、看、说”能力的GPT-4o。OpenAI网站称,GPT-4o的“o”代表“omni”。
01:07澎湃新闻编辑 李垚瑞(01:07)OpenAI的新品终于官宣,是一个“全能助手”。北京时间5月14日凌晨,OpenAI发布最新多模态大模型 GPT-4o(o代表omini,全能),支持文本、音频和图像的任意组合输入,并生成文本、音频和图像的任意组合输出。