最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2026-01-192 阅读量

第1步:安装环境git clone https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factory# 推荐使用 condaconda create -n

2026-01-193 阅读量

作者:吴业亮博客:wuyeliang.blog.csdn.net本文系统讲解LLaMA Factory中主流量化方法的核心原理,并基于Ubuntu 22.04环境完

2026-01-192 阅读量

二、LLaMA Factory 介绍和基本使用 LLaMA Factory 是一个简单易用且高效的大型语言模型训练与微调平台。通过它,用户可以在无

2026-01-183 阅读量

Llama-Factory + Triton推理服务器性能调优实战在大模型落地从“能用”走向“好用”的今天,企业真正关心的问题早已不再是“

2026-01-183 阅读量

文章目录 一、LLAMA-Factory简介二、安装LLaMA-Factory三、准备训练数据四、模型训练1. 模型下载2. 全量微调3.lora微调4.Q

2026-01-184 阅读量

文章目录 问题描述解决方案操作步骤1. 编辑Ollama服务配置文件2. 添加环境变量配置3. 重新加载systemd配置4. 重启Ollama服务

2026-01-184 阅读量

适用场景:本地或服务器部署大模型(如 Qwen、DeepSeek、GLM 等),通过 Docker 容器化管理 Ollama,支持指定 GPU 设备运行模型

2026-01-162 阅读量

一、shell一键部署 注意:这一步比较链接github慢,比较推荐二进制文件部署方式。 输入下面命令一键部署: curl -fsSL https://

2026-01-153 阅读量

作者: L-sase 发布日期: 2025年09月09日 标签: Ollama, Ubuntu 24.04, 离线安装, Linux, 本地大模型, LLM, AI部署 前言