本地部署DeepSeek-R1(Dify升级最新版本、新增插件功能、过滤推理思考过程)

下载最新版本Dify Dify1.0版本之前不支持插件功能,先升级DIfy 下载最新版本,目前1.0.1 Git地址:https://github.com/langgenius/dify/releases/tag/1.0.1 我这里下载到老版本同一个目录并解压

avatar 福福不服 发表于 2025-03-17

3️⃣已恢复所有业务

本站已恢复已知的所有业务,恢复于 2025 年 03 月 16 日 00:30:11

avatar 寻梦城 发表于 2025-03-16

记录致远OA服务器硬盘升级过程

前言 日常使用中OA系统突然卡死,刷新访问进不去系统,ping服务器地址正常,立马登录服务器检查,一看磁盘爆了。 我大脑直接萎缩了,谁家OA系统配400G的空间啊,过我手的服务器没有50也是30台,还是第一次看见这么小容量的服务器。 立马清理OA日志,压缩数据库日志,才让磁盘空出几十G的空间,先让O

avatar 福福不服 发表于 2025-03-12

记录致远OA服务器硬盘升级过程

前言 日常使用中OA系统突然卡死,刷新访问进不去系统,ping服务器地址正常,立马登录服务器检查,一看磁盘爆了。 我大脑直接萎缩了,谁家OA系统配400G的空间啊,过我手的服务器没有50也是30台,还是第一次看见这么小容量的服务器。 立马清理OA日志,压缩数据库日志,才让磁盘空出几十G的空间,先让O

avatar 福福不服 发表于 2025-03-12

2️⃣停止所有服务预告

停止所有服务预告

avatar 寻梦城 发表于 2025-03-11

Docker Compose 部署 steamcmd 安装奈斯服务端

由于打算在云端服务器部署奈斯启示录服务端跟朋友们一起玩, 所以在云端搭建服务器, 顺便写下本文章记录搭建的过程。

avatar nukix的工具箱 发表于 2025-03-09

如何获取视频的LUFS(响度单位)?通过视频文件测量视频音量响度水平

这篇文章介绍了视频音量的重要性及其调整方法。文中提到,视频音量过低会影响观看体验,特别是在信息流中与其他大声视频竞争时。为了解决这一问题,文章引入了LUFS(Loudness Units Full Scale)作为衡量音频响度的标准,并解释了其在广播和流媒体中的应用。作者推荐使用ffmpeg工具来测量视频的LUFS值,并提供了具体的操作命令和参数说明。最后,文章还详细解读了测量结果中各项参数的意义,帮助用户更好地调整视频音量以符合不同平台的要求。

avatar 张洪Heo 发表于 2025-03-03

本地部署DeepSeek-R1(Dify发件邮箱、找回密码、空间名称修改)

Dify配置发件邮箱 DIfy默认邮箱配置为空,在邀请团队成员注册时是不会发送邀请链接的,只能通过手动复制生成的注册链接发送给对应的人去注册设置密码。 这样很麻烦,并且在找回密码时也接收不了邮件,无法重置密码。 找到本地部署DIfy的目录,跟安装时一样找到Dify下面的docker目录。修改.env

avatar 福福不服 发表于 2025-03-01

本地部署DeepSeek-R1(Dify发件邮箱、找回密码、空间名称修改)

Dify配置发件邮箱 DIfy默认邮箱配置为空,在邀请团队成员注册时是不会发送邀请链接的,只能通过手动复制生成的注册链接发送给对应的人去注册设置密码。 这样很麻烦,并且在找回密码时也接收不了邮件,无法重置密码。 找到本地部署DIfy的目录,跟安装时一样找到Dify下面的docker目录。修改.env

avatar 福福不服 发表于 2025-03-01

ollama和open-webui部署ds

引言 最近,deepseek是越来越火,我也趁着这个机会做了下私有化部署,我这边使用的ollama和 open-webui实现的web版本 ollama 简介 Ollama 是一个开源的工具,专门用于简化机器学习和 AI 模型的部署。它提供了一个统一的平台,允许你通过命令行工具创建、管理和更新模型。无论你是想在本地开发环境中运行模型,还是将其部署到云端,Ollama 都可以简化这一过程。 Ollama 支持多种常见的机器学习模型框架,包括但不限于 TensorFlow、PyTorch、Hugging Face Transformers 等,此外还支持类似 DeepSeek 这种自定义的搜索引擎模型。 核心特性 易于使用的命令行界面:Ollama 提供了简单直观的命令行工具,可以通过几条命令就完成模型的创建、启动、更新等操作。 环境隔离:Ollama 可以为每个模型提供独立的运行环境,避免了不同模型之间的依赖冲突。 跨平台支持:无论你是使用 Linux、Mac 还是 Windows,Ollama 都可以无缝运行。 自动更新:Ollama 会自动为模型提供更新,确保你使用的是最新的版本。 高效的资源管理:通过 Ollama,你可以有效地管理计算资源,包括 CPU 和 GPU 的使用,确保模型运行的高效性。 安装 Linux 使用root用户执行下面的命令: curl -fsSL https://ollama.com/install.sh | sh windows 直接下载安装包:windows安装包 macos 下载压缩包:https://ollama.com/download/Ollama-darwin.zip 环境变量 为了Ollama能够对外提供服务,需要设置OLLAMA_HOST 在Linux上设置 如果Ollama作为systemd服务运行,通过systemctl设置...

avatar 龙儿之家 发表于 2025-02-27