本文适用对象:初级水平
目标:利用迭代的方法,对多个数据条目进行相同的处理
上一节Dify应用实战课,我们继续对新项目智能医疗分诊助手,进行了分解学习。
今天我们又将暂停一下,先学一下循环的处理。
学习完成,你将掌握如何对多条相同形式的数据,按照遍历处理的方法,进行加工处理。
**01.**动手做一做今天的任务会新开一个workflow,完成后可以合并至”每日智选”应用内。
再复习一下”每日智选”的内容,通过获取天气API,得到天气信息,输出到图片和语音中。而现在最主要的内容,是热点新闻和解读。接下来会获取每日热点新闻10条,然后填充进结果图。
添加节点”HTTP请求”,配置该节点为获取热点新闻。
接着在其后,添加节点”LLM”,设置如下,上下文选择”HTTP请求”的请求结果。提示词填写:
123456789根据获得的 上下文 内容,对其进行内容提取:1\. 需要得到author\_name新闻来源,title新闻标题和url文章链接2.严格按照json格式输出,参照key为类型,值为内容的形式,不需要解释。3.新闻来源需要有影响力的媒体,不要采收自媒体类型的。4.一次提取只需要10 ...
本文适用对象:初级水平
目标:利用问题分类将对话拆分为不同场景,将复杂使用场景转为多个单一场景
上一节Dify应用实战课,我们开启了一个新的项目,智能医疗分诊助手。
今天我们将基于智能医疗分诊助手,进行更为复杂的智能问答。
学习完成,你将掌握如何构建一个应用,能处理复杂场景的任务,通过场景拆解,达到化繁为简的目的。
**01.**动手做一做上次课的分诊应用,只有关键的一步,利用了大语言模型内在的自注意力机制,就能完成识别症状与导流的工作。
今天我们来要来增加这个智能医疗分诊助手”医小智”的能力。
因为在实际的场景中,有可能还是要确定大致问题的范围,然后再做出更加精准的判断。所以,就需要用到Dify的另一个组件”问题分类器”。
在上一课的流程基础上,我们在"开始"之后添加一个"问题分类器",分类器同样也是需要选择一个大语言模型的,但是组件会约束大语言模型去匹配给定的分支的结果。
然后在每个分支后都能添加一个行动,可以是直接回复,也可以调用"LLM",进一步对前面对话所获取的"信息",和当前节点给予的&qu ...
今天我们开启一个新的项目 – 智能医疗分诊助手。
学习完成,你将掌握如何构建多轮对话应用,获得更为准确的信息,以实现特定的任务。
**01.**动手做一做暂时先将之前的案例放一放,大家需要新建一个对话流。放心,之前的图文生成和语音项目还未最终完成,但已经变得有点复杂了。如果是刚开始学的同学,可能有点跟不上。所以,我们为了降低难度,先再开启一个新项目,把没学的内容补齐。
最后会做完完整版的工作流。麦金叔先卖个关子,记得点赞、关注、收藏不迷路。
今天我们来动手做一做智能医疗分诊助手”医小智”的开发。
还是老规矩,这次我们选新建空白应用,类型用”Chatflow”。这其实和Workflow是差不多的,只是有一点差异,Chatflow是基于对话的,并且内置了记忆能力,即能将多轮对话的历史记忆保存并传递给下一轮对话。
新创建完成,自动会添加三个节点:”开始”,”LLM”和”直接回复”。
此时,就已经可以点击”预览”,进行对话调试了。
好了,准备工作就绪,我们正式开始项目开发。
“医小智”是一台放在医院大门口的机器人,它将代替问诊台的服务人员,初步判断来医院就诊的客人,属于什么病因,引导 ...
**01.**环境准备
大家通过昨天的教程,已经知道如何生成图片,并看到了最终效果。但是为什么要按照这样的流程进行编写,还是知其然,不知其所以然。
那今天麦金叔就给大家还原一下真相。
因为前面也提到了,这次的动手依赖两个第三方的服务工具。因此,如果想自己动手的,先把账号注册好吧。
注册成功后直接来到了控制台页面,此时按图创建应用。
继续点击新创建的一串数字APPID的应用,打开”应用详情”。可以看到现在API密钥这里是空的,点击右方”新增密钥”,获得一条记录。页面显示一长串数字字母的字符串,右边有个复制按钮,点一下复制保存到安全的地方,留着备用。
再说一下,这个服务宣称是免费,但实际上是每个账号每月有1000次的免费处理次数,正常使用基本上算免费了。但如果你的业务需求量很大,可以购买资源包,也不贵,一张图5厘,已经蛮良心的了。
按图所示注册figma,这个是美丽国的服务工具,虽然有一些不好的名声,但是在设计SaaS服务领域还是发展很快的。我们用它纯属”白嫖”,不用有太多顾虑。
注册后,下载一个包装的桌面版。然后记住这个插件,等下就要用,Batch auto-ge ...
一、工具准备和参考文档1.工具准备
WindowsTerminal:本次配置的终端工具,当然也可将本文作为参考
WSL2:Windows Linux子系统
2.参考文档
Microsoft官方教程 :教程:使用 Oh My Posh 为 PowerShell 或 WSL 设置自定义提示符
oh-my-posh官方教程:oh-my-posh
二、WindowsTerminal的基础设置(必做步骤)1.字体设置首先去 Github 下载 nerd-fonts 字体。字体设置的目的是为了保证在安装了 oh-my-posh 后不产生特殊字符显示的问题。
下载releases的FiraCode.zip:FiraCode3.3.0.zip 其他版本可自行下载。下载完成后解压、安装字体。
在WindowsTerminal 中设置字体:
2.设置WindowsTerminal背景美化(可选)
三、PowerShell命令行美化
提示:请提前以管理员身份运行 PowerShell
1.安装oh-my-poshbash Install-Module oh-my-posh -Scope Curren ...
前言 如果你将Ubuntu的文件解压并安装到D盘,但WSL本身仍在C盘,则安装的Ubuntu子系统仍会使用WSL的默认存储路径。在 WSL (Windows Subsystem for Linux) 中,默认情况下安装的 Ubuntu 子系统及其文件存储位置是固定的,但你可以更改 WSL 的安装地址,尤其是对于 WSL 2。下面是如何更改安装地址的步骤。
一、查看安装路径:这一步完全可以不用操作,因为一般情况下WSL 的 Linux系统文件存储在 Windows 文件系统的特定位置。默认情况下,WSL 2 使用一个虚拟硬盘(VHD)来存储文件,而 WSL 1 则将文件存储在 Windows 文件系统中。
1. wsl2的安装目录WSL 2: WSL 2 使用一个虚拟硬盘(VHD),存储在 Windows 用户目录下,路径类似于:C:\Users\<YourUsername>\AppData\Local\Packages\CanonicalGroupLimited.UbuntuonWindows_<version>\LocalState\ext4.vhdx
2. ...
前言近年来,国产大模型DeepSeek备受关注,但随着用户访问量激增,频繁出现响应缓慢甚至系统宕机的现象,给使用者带来了一些不便。幸运的是,DeepSeek作为开源模型,允许开发者通过本地部署来解决这一问题。将模型部署到本地后,用户无需依赖网络即可随时进行推理操作,不仅提升了使用体验,还大幅降低了对外部服务的依赖。
安装 Ollama要在本地运行 DeepSeek,我们需要使用 Ollama——一个开源的本地大模型运行工具
首先,访问 Ollama官网 下载该工具。官网提供了针对不同操作系统的安装包,用户只需选择适合自己电脑的版本即可。在本例中,我们选择下载适用于 Windows 操作系统的版本。
*** 注意: 官网的下载地址为github网站的地址,因为一些原因,部分地区无法访问,大家可以使用Watt Toolkit 进行网络加速,或者使用好心人部署的文件加速网站进行下载 **
Ollama 安装包下载后双击install,安装速度还是比较快的(注:直接安装到C盘,无法更改位置,下载的模型也在C盘)
安装完成 Ollama 后,打开电脑的 CMD(命令提示符)。只需在电脑下方的 ...
1.更新软件源1dnf update
安装字库
1dnf install dejavu-fonts liberation-fonts gnu-*-fonts google-*-fonts
安装 Xorg
1dnf install xorg-*
2.安装 xfce1dnf install xfwm4 xfdesktop xfce4-* xfce4-*-plugin network-manager-applet *fonts
安装登录管理器
1dnf install lightdm lightdm-gtk
设置默认桌面为XFCE 通过root权限用户设置
1echo 'user-session=xfce' >> /etc/lightdm/lightdm.conf.d/60-lightdm-gtk-greeter.conf
使用登录管理器登录XFCE
1systemctl start lightdm
登录管理器启动后,在右上角左侧选择”xfce-session” 输入用户名、密码登录
设置开机自启动图形界面
12systemctl enable ...
ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。
1 ollama 安装ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几步:
• 下载 ollama 安装程序并安装。
• 启动 ollama,执行命令下载和运行模型。如:ollama run deepseek-r1:1.5b
• 以命令行交互、API 调用、第三方应用接入等形式使用其服务。
1.1 硬件要求ollama 本身对硬件要求并不高,主要取决于运行模型的要求。基本建议:
你应该至少有 4 GB 的 RAM 来运行 1.5B 模型,至少有 8 GB 的 RAM 来运行 7B 模型,16 GB 的 RAM 来运行 13B 模型,以及 32 GB 的 RAM 来运行 33B 模型。
假若需要本地私有化部署具有实用性的模型,应至少有独立显卡并有 4G ...
前提条件安装 Dify 之前, 请确保你的机器已满足最低安装要求:
12CPU >= 2 CoreRAM >= 4 GiB
关于如何在各操作系统上安装Docker,可查看Docker官方文档(https://www.docker.com/)
或参考文章:
如何在Linux、Windows、MacOS中安装Docker
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Docker
获取代码克隆 Dify 源代码至本地环境。
1git clone https://github.com/langgenius/dify.git --branch 1.1.3
克隆代码需要系统已装Git,否则需要先安装。
访问 Git 官网,下载安装包安装:https://git-scm.com/downloads
关于Git安装可参考文章:
如何在Linux、Windows、MacOS中安装Git
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Git
如果你的网络环境不好,无法直接克隆完整项目,可以试下以下的命令:
1 ...