最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2026-02-012 阅读量

先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro

2026-02-013 阅读量

先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro

2026-01-247 阅读量

前言 昨天,给小伙伴们介绍了一下如何下载ollama和具体的命令有哪些,也告诉了大家下载模型的具体方法,今天就给大家介绍一下如

2026-01-184 阅读量

文章目录 问题描述解决方案操作步骤1. 编辑Ollama服务配置文件2. 添加环境变量配置3. 重新加载systemd配置4. 重启Ollama服务

2026-01-184 阅读量

适用场景:本地或服务器部署大模型(如 Qwen、DeepSeek、GLM 等),通过 Docker 容器化管理 Ollama,支持指定 GPU 设备运行模型

2026-01-162 阅读量

一、shell一键部署 注意:这一步比较链接github慢,比较推荐二进制文件部署方式。 输入下面命令一键部署: curl -fsSL https://

2025-08-1650 阅读量

过去,AI 应用是大厂的专利;如今,开源大模型让任何人都能构建属于自己的 ChatGPT、AI 助手或多模态应用。本文将带你从零开始,

2025-06-1697 阅读量

一、安装ollama export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download" curl

2025-06-0573 阅读量

1、安装docker 这里建议用docker来部署,方便简单 安装教程需要自己找详细的,会用到跳过 如果你没有安装 Docker,可以按照以