**01.**环境准备
大家通过昨天的教程,已经知道如何生成图片,并看到了最终效果。但是为什么要按照这样的流程进行编写,还是知其然,不知其所以然。
那今天麦金叔就给大家还原一下真相。
因为前面也提到了,这次的动手依赖两个第三方的服务工具。因此,如果想自己动手的,先把账号注册好吧。
注册成功后直接来到了控制台页面,此时按图创建应用。
继续点击新创建的一串数字APPID的应用,打开”应用详情”。可以看到现在API密钥这里是空的,点击右方”新增密钥”,获得一条记录。页面显示一长串数字字母的字符串,右边有个复制按钮,点一下复制保存到安全的地方,留着备用。
再说一下,这个服务宣称是免费,但实际上是每个账号每月有1000次的免费处理次数,正常使用基本上算免费了。但如果你的业务需求量很大,可以购买资源包,也不贵,一张图5厘,已经蛮良心的了。
按图所示注册figma,这个是美丽国的服务工具,虽然有一些不好的名声,但是在设计SaaS服务领域还是发展很快的。我们用它纯属”白嫖”,不用有太多顾虑。
注册后,下载一个包装的桌面版。然后记住这个插件,等下就要用,Batch auto-ge ...
一、工具准备和参考文档1.工具准备
WindowsTerminal:本次配置的终端工具,当然也可将本文作为参考
WSL2:Windows Linux子系统
2.参考文档
Microsoft官方教程 :教程:使用 Oh My Posh 为 PowerShell 或 WSL 设置自定义提示符
oh-my-posh官方教程:oh-my-posh
二、WindowsTerminal的基础设置(必做步骤)1.字体设置首先去 Github 下载 nerd-fonts 字体。字体设置的目的是为了保证在安装了 oh-my-posh 后不产生特殊字符显示的问题。
下载releases的FiraCode.zip:FiraCode3.3.0.zip 其他版本可自行下载。下载完成后解压、安装字体。
在WindowsTerminal 中设置字体:
2.设置WindowsTerminal背景美化(可选)
三、PowerShell命令行美化
提示:请提前以管理员身份运行 PowerShell
1.安装oh-my-poshbash Install-Module oh-my-posh -Scope Curren ...
前言 如果你将Ubuntu的文件解压并安装到D盘,但WSL本身仍在C盘,则安装的Ubuntu子系统仍会使用WSL的默认存储路径。在 WSL (Windows Subsystem for Linux) 中,默认情况下安装的 Ubuntu 子系统及其文件存储位置是固定的,但你可以更改 WSL 的安装地址,尤其是对于 WSL 2。下面是如何更改安装地址的步骤。
一、查看安装路径:这一步完全可以不用操作,因为一般情况下WSL 的 Linux系统文件存储在 Windows 文件系统的特定位置。默认情况下,WSL 2 使用一个虚拟硬盘(VHD)来存储文件,而 WSL 1 则将文件存储在 Windows 文件系统中。
1. wsl2的安装目录WSL 2: WSL 2 使用一个虚拟硬盘(VHD),存储在 Windows 用户目录下,路径类似于:C:\Users\<YourUsername>\AppData\Local\Packages\CanonicalGroupLimited.UbuntuonWindows_<version>\LocalState\ext4.vhdx
2. ...
前言近年来,国产大模型DeepSeek备受关注,但随着用户访问量激增,频繁出现响应缓慢甚至系统宕机的现象,给使用者带来了一些不便。幸运的是,DeepSeek作为开源模型,允许开发者通过本地部署来解决这一问题。将模型部署到本地后,用户无需依赖网络即可随时进行推理操作,不仅提升了使用体验,还大幅降低了对外部服务的依赖。
安装 Ollama要在本地运行 DeepSeek,我们需要使用 Ollama——一个开源的本地大模型运行工具
首先,访问 Ollama官网 下载该工具。官网提供了针对不同操作系统的安装包,用户只需选择适合自己电脑的版本即可。在本例中,我们选择下载适用于 Windows 操作系统的版本。
*** 注意: 官网的下载地址为github网站的地址,因为一些原因,部分地区无法访问,大家可以使用Watt Toolkit 进行网络加速,或者使用好心人部署的文件加速网站进行下载 **
Ollama 安装包下载后双击install,安装速度还是比较快的(注:直接安装到C盘,无法更改位置,下载的模型也在C盘)
安装完成 Ollama 后,打开电脑的 CMD(命令提示符)。只需在电脑下方的 ...
1.更新软件源1dnf update
安装字库
1dnf install dejavu-fonts liberation-fonts gnu-*-fonts google-*-fonts
安装 Xorg
1dnf install xorg-*
2.安装 xfce1dnf install xfwm4 xfdesktop xfce4-* xfce4-*-plugin network-manager-applet *fonts
安装登录管理器
1dnf install lightdm lightdm-gtk
设置默认桌面为XFCE 通过root权限用户设置
1echo 'user-session=xfce' >> /etc/lightdm/lightdm.conf.d/60-lightdm-gtk-greeter.conf
使用登录管理器登录XFCE
1systemctl start lightdm
登录管理器启动后,在右上角左侧选择”xfce-session” 输入用户名、密码登录
设置开机自启动图形界面
12systemctl enable ...
ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。
1 ollama 安装ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几步:
• 下载 ollama 安装程序并安装。
• 启动 ollama,执行命令下载和运行模型。如:ollama run deepseek-r1:1.5b
• 以命令行交互、API 调用、第三方应用接入等形式使用其服务。
1.1 硬件要求ollama 本身对硬件要求并不高,主要取决于运行模型的要求。基本建议:
你应该至少有 4 GB 的 RAM 来运行 1.5B 模型,至少有 8 GB 的 RAM 来运行 7B 模型,16 GB 的 RAM 来运行 13B 模型,以及 32 GB 的 RAM 来运行 33B 模型。
假若需要本地私有化部署具有实用性的模型,应至少有独立显卡并有 4G ...
前提条件安装 Dify 之前, 请确保你的机器已满足最低安装要求:
12CPU >= 2 CoreRAM >= 4 GiB
关于如何在各操作系统上安装Docker,可查看Docker官方文档(https://www.docker.com/)
或参考文章:
如何在Linux、Windows、MacOS中安装Docker
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Docker
获取代码克隆 Dify 源代码至本地环境。
1git clone https://github.com/langgenius/dify.git --branch 1.1.3
克隆代码需要系统已装Git,否则需要先安装。
访问 Git 官网,下载安装包安装:https://git-scm.com/downloads
关于Git安装可参考文章:
如何在Linux、Windows、MacOS中安装Git
蓁心的蓁意,公众号:时光瞭望塔如何在Linux、Windows、MacOS中安装Git
如果你的网络环境不好,无法直接克隆完整项目,可以试下以下的命令:
1 ...
除了语音生成,我们还有几种形态的生成,需要继续完成。今天教大家使用Jinja模版,将内容进行格式输出。
学习完成,你将掌握生成内容时,可以用固定的模版,填入动态变化的内容,来生成文案内容等。
01. 动手做一做
基于上上一节课的流程,在”代码执行”节点之后,新增一个”模版转换”的节点。
添加之后,连接”代码执行”节点和新增节点,再连接新增节点和结束节点(这里先移除语音输出处理,后面会加回来,要多路生成不同的内容)。新增参数(一定要先连接)”模版转换”的输入,选择”代码执行”的Object。这里注意,需要将”代码执行”节点也做一些调整。
输出的时候,要按字典而非之前的字符串输出。输出变量也选对象输出。
新增节点修改参数,输入模版内容,不变的内容和动态内容分开,动态内容的值需要有双大括号转义。
点击”发布”,保存。提示”操作成功”。就可以进行测试了。测试如下:
结果输出是一个按模版填入动态获取内容的整段文案结果。
02. 补充说明
今天的任务,也非常简单,但为什么是中级水平呢?原因是,这里的Jinja模版的使用,也需要一定的编程经验。
Jinja原本是Pyth ...
有了这些内容,兵分两路,一路去生成语音播报,另一路就去生成图片内容。
学习完成,你将掌握如何对图片进行布局,控制使用背景图,不同区域生成指定文字内容。
**01.**动手做一做
大家通过之前的教程,已经有了基本的使用Dify节点的能力,所以这一节课,就一次性多来点。不过因为加的东西有点多,涉及到的知识有点过载,所以还是分两篇吧。
基于上一节课的流程,在”模版转换”节点之后,再新增四个”模版转换”的节点,之后来一个”HTTP请求”和”代码执行”节点。
添加之后,以上节点都连起来,然后按下面图示,进行设置。(如有需求,可扫描文末助手添加好友,发送"Dify图片制作",获取DSL文件)
其中,编号1,2,3实际上是拼凑出一个JSON请求体,供”HTTP请求”节点使用。注意每段都不是正常的JSON完整体,有缺闭口的,有多一个逗号或者闭合大括号的。但在最后一次Jinja模版拼凑(编号4)之后,就是一个完整的JSON了。
最后经过HTTP请求(编号5。如果不会,也不用担心,下篇会手把手教,所以为了防止走失,还是关注一下吧)之后,再在”代码执行” ...
我们继续AI学习之旅,今天教大家使用TTS节点,来生成语音播报的音频数据。
学习完成,你将掌握生成语音文件的方法,可以将自己的文字直接变为播客内容。
**01.**动手做一做
基于上一节课的流程,在”代码执行”节点之后,新增一个”Text To Speech”的节点。
添加之后,连接”代码执行”节点和新增节点;再连接新增节点和结束节点。新增参数(一定要先连接),”Text To Speech”的输入,选择”代码执行”的text。
TTS节点需要有模型,这里选择SiliconCloud的fish-speech-1.5。
硅基流动配置非常简单,直接点配置弹出对话框后,跟着”从SiliconFlow获取API Key”的向导,打开官网,注册后创建API Key,然后复制到Dify的配置框,即可。
新增模型之后,在”系统模型设置”的文本转语音模型,选中fishaudio。
同时新增节点,记得选择声音的类型,包括了4男4女的备选声音,可以都测试一下,看看是否满足自己的需要。
“结束”节点的输出改为”Text To Speech”的files(这里注意不要再选成text ...