你的笔记本电脑上可以免费使用chatgpt了,安装原来这么简单

- 官网
https://ollama.com/
- 开源地址
https://github.com/ollama/ollama
- 特点
启动并运行大型语言模型。 运行 Llama 3、Phi 3、Mistral、Gemma 和其他模型。自定义并创建自己的。
支持本地知识库
- 使用说明
- 下载安装ollama
下载地址:
https://ollama.com/download
- 用ollama下载模型
例如:
ollama pull llama3
- 开始使用
例如:
ollama run llama3
搭配

您应该至少有8 GB的RAM用于运行7B模型,16 GB用于运行13B模型,32 GB用于运行33B模型。
普通的家用电脑上也可以运行本地大模型了。
搭配网页或桌面客户端,可以想访问“豆包”、“chatgpt”一样使用自己电脑上的大模型。

- Open WebUI
- Enchanted (macOS native)
- Hollama
- Lollms-Webui
- LibreChat
- Bionic GPT
- HTML UI
- Saddle
- Chatbot UI
- Chatbot UI v2
- Typescript UI
- Minimalistic React UI for Ollama Models
- Ollamac
- big-AGI
- Cheshire Cat assistant framework
- Amica
- chatd
- Ollama-SwiftUI
- Dify.AI
- MindMac
- NextJS Web Interface for Ollama
- Msty
- Chatbox
- WinForm Ollama Copilot
- NextChat with Get Started Doc
- Alpaca WebUI
- OllamaGUI
- OpenAOE
- Odin Runes
- LLM-X (Progressive Web App)
- AnythingLLM (Docker + MacOs/Windows/Linux native app)
- Ollama Basic Chat: Uses HyperDiv Reactive UI
- Ollama-chats RPG
- QA-Pilot (Chat with Code Repository)
- ChatOllama (Open Source Chatbot based on Ollama with Knowledge Bases)
- CRAG Ollama Chat (Simple Web Search with Corrective RAG)
- RAGFlow (Open-source Retrieval-Augmented Generation engine based on deep document understanding)
- StreamDeploy (LLM Application Scaffold)
- chat (chat web app for teams)
- Lobe Chat with Integrating Doc
- Ollama RAG Chatbot (Local Chat with multiple PDFs using Ollama and RAG)
- BrainSoup (Flexible native client with RAG & multi-agent automation)
- macai (macOS client for Ollama, ChatGPT, and other compatible API back-ends)
- Open WebUI的界面

尽管有文心一言等云服务的大模型,但本地部署大模型仍有其重要意义和需求,原因包括以下几点: 1. 数据安全性和隐私性:本地部署可以更好地确保数据仅在本地环境中处理和存储,减少数据泄露到外部的风险,对于一些对数据安全和隐私要求极高的场景至关重要。 2. 定制化和灵活性:可以根据特定的业务需求和场景进行更深度的定制和优化,更好地适应本地的独特要求和工作流程。 3. 低延迟和稳定性:避免了网络延迟等问题,在本地可以获得更稳定和快速的响应,尤其对于一些对实时性要求高的应用非常关键。 4. 自主可控性:组织或企业能够完全掌控模型的运行和管理,不受外部服务提供商的限制和影响。 5. 特殊环境需求:某些特定的行业或领域可能存在特殊的网络环境或合规要求,本地部署能更好地满足这些条件。
所有插件都能用吗,作图 和 视频等?
作图和视频都有单独的模型和工具
这哪是chatgpt