最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2025-06-0483 阅读量

提示:实际尝试了很多方法,均以失败告终,结论是Dify 1.0+对离网部署(信创环境)很不友好,但挺适合有网环境的。自己本机

2025-05-3073 阅读量

本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署

2025-05-27103 阅读量

@4卡4090服务器ollama环境部署、模型下载、模型调用及API接口调用 本人安装的硬件环境如下: CPU:intel至强金牌6148*2主频2.5

2025-05-2781 阅读量

文章目录 前言电脑配置:安装的Deepseek版本:使用的UI框架:体验效果展示:本地部署体验总结 部署过程Ollama部署拉取模型

2025-05-23116 阅读量

一、背景与目标:从知识隔离到本地化智能体 在人工智能应用日益普及的今天,隐私保护与数据主权成为重要挑战。传统的AI模型依赖

2025-05-2358 阅读量

前言: 因为想到有些环境可能没法使用外网的大模型,所以可能需要内网部署,看了一下ollama适合小型的部署,所以就尝试了一下,

2025-05-2091 阅读量

本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署

2025-05-1884 阅读量

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无

2025-05-1792 阅读量

纯离线部署查了很多文档,发现很多不全,有些还把命令藏起来变成一个安装脚本才能部署ollama。 最后测通后发现还是比较简单的,