【微软开源DeepSpeedChat 可将训练速度提升15倍以上】《科创板日报》13日讯,当地时间4月12日,微软宣布开源Deep Speed Chat,可帮助用户轻松训练类ChatGPT等大语言模型。
作者:HelloGitHub-小鱼干摘要:GitHubTrending 上周看点,GitHub 官宣 CLI 已发布 beta 版,前端新晋高性能打包神器 esbuild 宣战 Webpack&Parcel,微软、Facebook 开源项又添新成员…
微软宣布开源DeepSpeed Chat,训练速度可提升15倍以上。当地时间4月12日,微软宣布开源系统框架DeepSpeed Chat,帮助用户训练类似于ChatGPT的模型。与现有系统相比,DeepSpeed Chat的速度快15倍以上,可提升模型的训练和推理效率。
平安证券4月14日研报表示,日前微软宣布开源Deep Speed Chat,帮助用户轻松训练类ChatGPT等大语言模型。Deep Speed Chat的开源,将显著降低用户获得大模型的成本,加速大模型在千行百业的应用落地。
在OpenAI大走闭源之路,几乎已经要变成“CloseAI”的同时,其身后老板微软却搞起了开源。4月13日,微软宣布开源DeepSpeed-Chat,号称可以通过这一项目将ChatGPT等大语言模型的训练速度提升15倍以上,并大幅降低成本。
llm-course在上次介绍(北方的郎:llm-course,狂飙13.5K Star,GitHub上最全的开源大模型教程)后又有了更新,增加了新的章节包括“LLM工程师”等部分,Star也狂飙到了25K。GitHub地址:https://github.