零代码构建AI助手:Cherry Studio全功能实践指南

在[[为什么不推荐个人本地部署大语言模型?模型供应商推荐]]中,我们曾简要提及使用Cherry Studio搭建知识库的方案。本文将深度解析这款国产AI开发工具的最新功能与实践技巧,助你快速构建知识库、联网搜索、智能体、文生图等多项AI应用。

前期准备

  • 下载 Cherry studio
    地址: https://cherry-ai.com/
    注意:如果电脑性能不好,不要安装在 C 盘,因为所有资料库信息都在本地。

Cherry studio 介绍

Cherry Studio 是一个国人开发的开源,多模型服务的桌面客户端,在 github 上有 5.7 k 的 star。因其简单易上手,最近非常火。而且最近更新比较频繁,适合新手快速上手。

主要特点

  1. 开源免费,本地部署,不用数据泄密
  2. 中文开发者,文档清晰,界面简洁,易上手
  3. 功能丰富:对话知识库、联网搜索、多模型接入、智能体、文生图等。
  4. 可快速学习 AI 应用(智能体)搭建、 prompt 提示词工程

模型服务设置

模型服务商支持硅基流动等近 30 种服务商,其中 ollama 就是所谓本地部署模型管理器,感兴趣的可以挨个去尝试了解获取 API(不建议一股脑全部申请),软件同时支持自定义添加 4 种主流的模型供应商类型:openAI, Gemini, anthropic, Azure openAI。

模型服务商

自定义添加模型

硅基流动举例获取 key

首先获取在硅基流动官网获取 api key 。Cherry 贴心的做好了所有的跳转链接。
跳转链接

下方按钮点击模型,输入模型 id。模型 id 在模型广场复制。Cherry 自动识别了默认的服务商的模型名称和分组名称。

添加模型

模型id查找

快速搭建本地知识库对话应用

知识库对话并不神秘,就是 RAG 技术,需要本地知识库和两类模型,一类是文本对话,一类是文本嵌入。
文本对话模型示例

  • deepseek-ai/DeepSeek-R1(收费,运行慢,效果好)
  • deepseek-ai/DeepSeek-V3(收费,运行慢,效果好)
  • deepseek-ai/DeepSeek-R1-Distill-Llama-8B(蒸馏模型,免费,运行快)
    文本嵌入模型举例
  • BAAI/bge-m3
  • netease-youdao/bce-embedding-base_v1
  • BAAI/bge-large-zh-v1.5

添加个人知识库

在添加文本嵌入模型后,在知识库界面添加知识库,素材可以是文件、网址、网站、笔记。

添加文本嵌入模型

添加知识库

注意,RAG 对 pdf、md 格式更加友好,推荐使用微软开源工具 markitdown 进行转换。 https://www.html.zone/markitdown/

模型使用并调用知识库

在模型对话界面选择合适的模型,点击知识库图标,开始对话。下面是我以自己的历史博客内容用 deepseekv 2.5 进行的对话演示,输出引用内容可直接点击跳转。

知识库对话示例

联网搜索

Cherry Studio 目前已经支持的联网模型服务商有:
5. Google Gemini
6. 腾讯混元
7. 智谱 AI(全部收费)

具体申请 API 不在赘述,以下是使用 Google Gemini 2.0 联网模型的对话示例。
查找联网模型,注意添加 API key 并检查可用性。

联网模型

在默认助手选择联网模型,点击联网模式,开启对话。

联网对话

智能体

内置了多种智能体,所谓智能体就是 prompt +模型参数微调。

image.png

选择任意智能体,右键添加助手,在助手栏,右键编辑,可以看到内置的 prompt 。

image.png

image.png

模型调参包括:默认温度、top-p、上下文数、是否流式输出、思维链长度等。

  1. 温度(temperature):控制生成文本的随机性。值越高,输出越随机和多样化;值越低,输出越确定和保守,倾向于选择概率最高的词。
  2. top-p(nucleus sampling):也称为概率阈值,决定从累积概率超过p的最小候选词集合中选择。例如,top_p=0.7时,模型会从概率最高的词开始累加,直到总和超过0.7,然后仅从这些词中采样。这有助于减少重复性,同时保持多样性。
  3. 上下文数(context window或max_tokens):可能指模型处理的最大上下文长度,或者生成的最大token数。
  4. 是否流式输出(stream):流式输出指是否逐步接收生成的文本,而不是等待整个生成完成。代码中的stream参数设为False,表示不启用流式传输,一次性返回所有结果。
  5. 思维链长度(chain of thought length):控制推理模型的思维长度。

我们可以通过内置的智能体,根据自己的需求构建属于自己的智能体。具体在智能体-我的-创建智能体。

快捷助手

设置中开启快捷助手,可点击托盘图标快速启动默认对话机器人,其中默认模型可设置。个人感觉划词的方式更克制一点。

快捷助手

小程序

小程序可快速进入主流大语言模型对话页面。
image.png

文生图

以硅基流动 API 为例,调用主流的 FLUX 文生图模型,可以快速绘制精美图片。
image.png

总结

Cherry studio 是适合个人的 AI 工具箱,通过使用它可以快速理解大语言模型调用、模型选择、模型参数微调、文生图、搭建本地知识库应用、联网搜索等一系列的 AI 应用,帮助我们提升工作效率。

BY

纯个人经验,如有帮助,请收藏点赞,如需转载,请注明出处。
微信公众号:环境猫er
CSDN : 细节处有神明
个人博客: https://maoyu92.github.io/


零代码构建AI助手:Cherry Studio全功能实践指南
https://maoyu92.github.io/2025/02/07/03 工具推荐/零代码构建AI助手:Cherry Studio全功能实践指南/
作者
陈文茂
发布于
2025年2月7日
许可协议