最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2026-02-012 阅读量

先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro

2026-02-013 阅读量

先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro

2026-02-015 阅读量

前言:2025年是大模型“百模大战”转入“推理落地”的关键一年。DeepSeek V3、Llama 3 70B 等开源权重的发布,让开发者有了

2026-01-276 阅读量

摘要 针对通用大模型在行业场景中知识精准度不足、场景适配性差的问题,本文提出基于LLaMA 3 8B模型的微调方案,构建面向垂直领

2026-01-2713 阅读量

今天,我们将解锁更直接、更“本地化”的玩法——利用Windows Subsystem for Linux (WSL),在你的Windows电脑上原生部署vLLM

2026-01-263 阅读量

引言@wonderwhy-er/desktop-commander 是一个强大的 MCP(Model Context Protocol)服务器实现,专为与大语言模型 (LLM) 集成而

2026-01-247 阅读量

前言 昨天,给小伙伴们介绍了一下如何下载ollama和具体的命令有哪些,也告诉了大家下载模型的具体方法,今天就给大家介绍一下如

2026-01-213 阅读量

作者: L-sase 发布日期: 2025年09月09日 标签: Ollama, Ubuntu 24.04, 离线安装, Linux, 本地大模型, LLM, AI部署 前言

2026-01-194 阅读量

作者:吴业亮博客:wuyeliang.blog.csdn.net一、核心加速技术原理1. FlashAttention:注意力计算的内存优化革命核心原理传统