前言近年来,国产大模型DeepSeek备受关注,但随着用户访问量激增,频繁出现响应缓慢甚至系统宕机的现象,给使用者带来了一些不便。幸运的是,DeepSeek作为开源模型,允许开发者通过本地部署来解决这一问题。将模型部署到本地后,用户无需依赖网络即可随时进行推理操作,不仅提升了使用体验,还大幅降低了对外部服务的依赖。
安装 Ollama要在本地运行 DeepSeek,我们需要使用 Ollama——一个开源的本地大模型运行工具
首先,访问 Ollama官网 下载该工具。官网提供了针对不同操作系统的安装包,用户只需选择适合自己电脑的版本即可。在本例中,我们选择下载适用于 Windows 操作系统的版本。
*** 注意: 官网的下载地址为github网站的地址,因为一些原因,部分地区无法访问,大家可以使用Watt Toolkit 进行网络加速,或者使用好心人部署的文件加速网站进行下载 **
Ollama 安装包下载后双击install,安装速度还是比较快的(注:直接安装到C盘,无法更改位置,下载的模型也在C盘)
安装完成 Ollama 后,打开电脑的 CMD(命令提示符)。只需在电脑下方的 ...
1.更新软件源1dnf update
安装字库
1dnf install dejavu-fonts liberation-fonts gnu-*-fonts google-*-fonts
安装 Xorg
1dnf install xorg-*
2.安装 xfce1dnf install xfwm4 xfdesktop xfce4-* xfce4-*-plugin network-manager-applet *fonts
安装登录管理器
1dnf install lightdm lightdm-gtk
设置默认桌面为XFCE 通过root权限用户设置
1echo 'user-session=xfce' >> /etc/lightdm/lightdm.conf.d/60-lightdm-gtk-greeter.conf
使用登录管理器登录XFCE
1systemctl start lightdm
登录管理器启动后,在右上角左侧选择”xfce-session” 输入用户名、密码登录
设置开机自启动图形界面
12systemctl enable ...
ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。
1 ollama 安装ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几步:
• 下载 ollama 安装程序并安装。
• 启动 ollama,执行命令下载和运行模型。如:ollama run deepseek-r1:1.5b
• 以命令行交互、API 调用、第三方应用接入等形式使用其服务。
1.1 硬件要求ollama 本身对硬件要求并不高,主要取决于运行模型的要求。基本建议:
你应该至少有 4 GB 的 RAM 来运行 1.5B 模型,至少有 8 GB 的 RAM 来运行 7B 模型,16 GB 的 RAM 来运行 13B 模型,以及 32 GB 的 RAM 来运行 33B 模型。
假若需要本地私有化部署具有实用性的模型,应至少有独立显卡并有 4G ...
前提条件安装 Dify 之前, 请确保你的机器已满足最低安装要求:
12CPU >= 2 CoreRAM >= 4 GiB
关于如何在各操作系统上安装Docker,可查看Docker官方文档(https://www.docker.com/)
或参考文章:
如何在Linux、Windows、MacOS中安装Docker
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Docker
获取代码克隆 Dify 源代码至本地环境。
1git clone https://github.com/langgenius/dify.git --branch 1.1.3
克隆代码需要系统已装Git,否则需要先安装。
访问 Git 官网,下载安装包安装:https://git-scm.com/downloads
关于Git安装可参考文章:
如何在Linux、Windows、MacOS中安装Git
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Git
如果你的网络环境不好,无法直接克隆完整项目,可以试下以下的命令:
1 ...
除了语音生成,我们还有几种形态的生成,需要继续完成。今天教大家使用Jinja模版,将内容进行格式输出。
学习完成,你将掌握生成内容时,可以用固定的模版,填入动态变化的内容,来生成文案内容等。
01. 动手做一做
基于上上一节课的流程,在”代码执行”节点之后,新增一个”模版转换”的节点。
添加之后,连接”代码执行”节点和新增节点,再连接新增节点和结束节点(这里先移除语音输出处理,后面会加回来,要多路生成不同的内容)。新增参数(一定要先连接)”模版转换”的输入,选择”代码执行”的Object。这里注意,需要将”代码执行”节点也做一些调整。
输出的时候,要按字典而非之前的字符串输出。输出变量也选对象输出。
新增节点修改参数,输入模版内容,不变的内容和动态内容分开,动态内容的值需要有双大括号转义。
点击”发布”,保存。提示”操作成功”。就可以进行测试了。测试如下:
结果输出是一个按模版填入动态获取内容的整段文案结果。
02. 补充说明
今天的任务,也非常简单,但为什么是中级水平呢?原因是,这里的Jinja模版的使用,也需要一定的编程经验。
Jinja原本是Pyth ...
有了这些内容,兵分两路,一路去生成语音播报,另一路就去生成图片内容。
学习完成,你将掌握如何对图片进行布局,控制使用背景图,不同区域生成指定文字内容。
**01.**动手做一做
大家通过之前的教程,已经有了基本的使用Dify节点的能力,所以这一节课,就一次性多来点。不过因为加的东西有点多,涉及到的知识有点过载,所以还是分两篇吧。
基于上一节课的流程,在”模版转换”节点之后,再新增四个”模版转换”的节点,之后来一个”HTTP请求”和”代码执行”节点。
添加之后,以上节点都连起来,然后按下面图示,进行设置。(如有需求,可扫描文末助手添加好友,发送"Dify图片制作",获取DSL文件)
其中,编号1,2,3实际上是拼凑出一个JSON请求体,供”HTTP请求”节点使用。注意每段都不是正常的JSON完整体,有缺闭口的,有多一个逗号或者闭合大括号的。但在最后一次Jinja模版拼凑(编号4)之后,就是一个完整的JSON了。
最后经过HTTP请求(编号5。如果不会,也不用担心,下篇会手把手教,所以为了防止走失,还是关注一下吧)之后,再在”代码执行” ...
我们继续AI学习之旅,今天教大家使用TTS节点,来生成语音播报的音频数据。
学习完成,你将掌握生成语音文件的方法,可以将自己的文字直接变为播客内容。
**01.**动手做一做
基于上一节课的流程,在”代码执行”节点之后,新增一个”Text To Speech”的节点。
添加之后,连接”代码执行”节点和新增节点;再连接新增节点和结束节点。新增参数(一定要先连接),”Text To Speech”的输入,选择”代码执行”的text。
TTS节点需要有模型,这里选择SiliconCloud的fish-speech-1.5。
硅基流动配置非常简单,直接点配置弹出对话框后,跟着”从SiliconFlow获取API Key”的向导,打开官网,注册后创建API Key,然后复制到Dify的配置框,即可。
新增模型之后,在”系统模型设置”的文本转语音模型,选中fishaudio。
同时新增节点,记得选择声音的类型,包括了4男4女的备选声音,可以都测试一下,看看是否满足自己的需要。
“结束”节点的输出改为”Text To Speech”的files(这里注意不要再选成text ...
前言
让大家知道如何通过知识库的能力,获取指定的结果。这在很多的应用场景是非常有用的能力。
比如依赖有大量规则文档的行业,就会大大减少查找核对的工作。经常看到律师朋友,医生朋友发朋友圈说,AI不行啊,老是”胡说八道”,出现幻觉。
这其实是高估了大语言模型的能力,即使是垂直领域做过SFT,也不可能精确的回答准真正匹配规则的内容。并且微调训练成本也不低,不可能随时更新语料(标注数据)。通过RAG的方法,就可以在特定场景下,严格通过给出的文档内的规则,给出结果。
01. 动手做一做基于上一节课的流程,在大模型节点后新增一个工具节点,选择搜索"天气",点中"高德天气预报"。
选择这个主要是前面知识库的地区名和code对照表,就是高德的。另外这个接口也比较简单,输入就是一个adcode,输出就是今天该地区的天气结果。
添加之后,连接LLM节点和新增节点,再连接新增节点和结束节点。修改参数(一定要先连接),"天气预报"的输入,选择"LLM"的text。然后把结束节点的输出也改为"天气预报"的 ...
前言
让大家知道如何通过工具插件来获取互联网的实时数据,结合大语言模型,才能让结果更加有用。
目前应该已经掌握了知识库的使用,工具插件的使用,并要熟练掌握”LLM”的多次使用。更高阶的知识,是LLM内模型能力的掌握(比如哪家的模型,擅长于什么任务?使用多大的模型,既能满足工作需求,又节约使用费用?),但这可以放在后面再学习。
复习了上节课的内容后,我们继续AI学习之旅。今天教大家使用代码节点,进一步对流程中产生的中间数据,进行”加工”处理,来满足要求。
比如,我们用了高德的”天气预报”工具,得到了今天和将来3天的天气预报数据。但我们只需要拿今天的天气情况,把它整合进我们自己的应用”每日智选”的页面内。
01.动手做一做
基于上一节课的流程,在”天气预报”节点之后,新增一个”代码执行”的节点。
添加之后,连接”天气预报”节点和新增节点;再连接新增节点和结束节点。新增参数(一定要先连接),”代码执行”的输入,选择”天气预报”的text。然后把结束节点的输出也改为”代码执行”的text。
点击”发布”,保存。提示”操作成功”。就可以进行测试了。测试如下:
02. 代码执行的开 ...
从今天开始,我们进入Dify应用开发课程。为了方便小白入门,课程的内容编排是先动手做一做,然后再解释原理。
1. 动手做一做
进入Dify,选择创建空白应用。
这次我们选择工作流,输入应用名字,点击”创建”。
可以看到一个空白画布,和coze不同。Dify只给出一个开始节点。那我们就点击选择”知识检索”。这时”开始”节点和新增的”知识检索”就链接起来了。右侧配置项,点击”知识库”右边的”+”号,选择创建的知识库。如果此时没有知识库,那应该先去知识库那里,上传一个知识库。
[!WARNING]
这里还有一个需要注意的地方,需要给出查询的变量,即从知识库里查询什么内容。如果选的是chatflow,那这里可以直接选sys.query。而我们选的是workflow,就在”开始”节点添加一个变量,例如博主用的是文本类型,变量名称叫input。
接着,继续添加一个LLM节点。此时,模型博主先用qwen2.5:14b,上下文选择知识检索。
而关键的SYSTEM里面,其实就是系统提示词,填入以下内容:根据用户输入 和知识检索的结果 ,输出用户期望得到的adcode。只 ...










