Ollama提供了REST API与本地部署的大模型,如本例中的llama3,进行交互,使用命令 ollama serve 启动本地服务器,就可以通过API调用本地部署的大模型,然后在API基础上定制自己的大模型应用了。
简介Ollama 是一个轻量级、可扩展的框架,旨在帮助用户在本地机器上构建和运行大型语言模型。它提供了一个简单的 API 用于创建、运行和管理模型,并附带了一个预建模型库,这些模型可以轻松地应用于各种应用程序中。
为了保持公司在AI(人工智能)开源大模型领域的地位,社交巨头Meta推出了旗下最新开源模型。当地时间4月18日,Meta在官网上宣布公布了旗下最新大模型Llama 3。目前,Llama 3已经开放了80亿(8B)和700亿(70B)两个小参数版本,上下文窗口为8k。