Ollama提供了REST API与本地部署的大模型,如本例中的llama3,进行交互,使用命令 ollama serve 启动本地服务器,就可以通过API调用本地部署的大模型,然后在API基础上定制自己的大模型应用了。