一、背景与目标 很多团队拿到大模型 API 之后,会遇到两个典型问题: 只能闲聊,无法回答公司内部知识(制度、产品、技术文档等
一、背景与目标 很多团队拿到大模型 API 之后,会遇到两个典型问题: 只能闲聊,无法回答公司内部知识(制度、产品、技术文档等
背景 最近学了AI agent应用,想着将自己存储在obsidian上的本地笔记数据让大模型能访问到,于是打算利用obsidian工具 + gith
本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署
目录 1 环境准备 1.1 互联网服务器Docker及 Docker Compose环境安装 Docker安装 Docker Compose安装 1.2 内网服务器docker环境
本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署
想在你的 Mac Mini M4 上体验 LLaMA-Factory 的强大功能,进行大模型微调和训练吗?本篇文章为你准备了详细的环境配置教程,强烈