本地部署DeepSeek
当前位置:点晴教程→知识管理交流
→『 技术文档交流 』
方案本地化方案非常简单:Ollama + DeepSeek-R1 + Enchanted LLM 。 OllamaOllama 是一个用于在本地运行大型语言模型(LLMs)的工具,支持多种开源模型,如 Llama 2、Code Llama、Mistral 等。它简化了模型下载、配置和运行的过程,用户可以通过命令行轻松管理模型。使用起来颇有docker的感觉,pull、run、ps...。安装也简单,选择对于系统,下载安装就妥了。 DeepSeek-R1在Ollama的网站上(https://ollama.com/)Models页面当前排名第一的就是DeepSeek-R1,点进去选择对应的版本,右边会展示对应的ollama 命令,复制命令粘贴到命令行工具中执行即可。如图: Enchanted控制台对话终究没有UI方便,在Ollama README上列举了大量UI工具,如Open WebUI、Enchanted、Hollama、Lollms-Webui.... 因为本地是MacOs,这里选择的是Enchanted。Enchanted是MacOs下的一个App,也支持IOS和Vision Pro,在AppStore上下载安装即可。Enchanted配置非常简单,填写本地服务地址(Ollama本地服务是: localhost:11434)选择对应模型版本即可。至此本地化就完成了。最后附上纪念照: 转自https://www.cnblogs.com/aser1989/p/18697164 该文章在 2025/2/5 9:36:50 编辑过 |
关键字查询
相关文章
正在查询... |