Win11 + cherry studio deepseek本地部署,保姆级教程
在人工智能飞速发展的当下,大语言模型不断推陈出新,Deepseek 以其卓越的性能和出色的表现,吸引了众多 AI 爱好者和开发者的目光。然而,直接使用 Deepseek 官网服务时,常常会遭遇服务器繁忙、响应延迟等问题,影响使用体验。为了获得更稳定、高效的使用感受,本地部署成为了一个极佳的解决方案。本文将详细分享如何借助硅基流动,在 CherryStudio 中部署本地化的 Deepseek,让你
·
目录
1.API申请
我们首先需要申请一个账号,注册后可以直接获取2000万免费tokens,新增我们的秘钥用于后续使用,申请方法如下。
账号登录地址:
点击秘钥,选择新建秘钥,便可以获得自己的秘钥。记住自己的秘钥,在之后需要使用。
2.API调用
1.进入网址Cherry Studio - 全能的AI助手选择立即下载
2.安装时位置建议放在其他盘,不要放c盘,占用空间比较大:
3.进入软件后,如果你的语言是英文的,可以选择设置,在常规设置这里调整语言。
4.选择设置,选择模型服务,输入你的API秘钥,点击检查即可(默认)。
5.如果想用自己的deepseek(基于Ollama安装的),需要关闭硅基流动的open按钮,选择Ollama并开启,这样就可以使用自己下载的模型。
3.添加本地知识库
添加一个知识库的名称,选择Ollama下载的嵌入模型,之后把文档拖拽进来 ,等到出现绿色的对号,表示文档处理完成。
4.内容检索
根据箭头的位置即可对本地安装的模型和本地的知识库进行选择,并给出来问答。
更多推荐
所有评论(0)