先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro
先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro
先上结论,ollama的rocm版本应该是支持amd的,而不是国产DCU的。下载先下载wget -c ollama-linux-amd64-rocm.tar.zstollama的ro
前言:2025年是大模型“百模大战”转入“推理落地”的关键一年。DeepSeek V3、Llama 3 70B 等开源权重的发布,让开发者有了
今天,我们将解锁更直接、更“本地化”的玩法——利用Windows Subsystem for Linux (WSL),在你的Windows电脑上原生部署vLLM
引言@wonderwhy-er/desktop-commander 是一个强大的 MCP(Model Context Protocol)服务器实现,专为与大语言模型 (LLM) 集成而
前言 昨天,给小伙伴们介绍了一下如何下载ollama和具体的命令有哪些,也告诉了大家下载模型的具体方法,今天就给大家介绍一下如
作者: L-sase 发布日期: 2025年09月09日 标签: Ollama, Ubuntu 24.04, 离线安装, Linux, 本地大模型, LLM, AI部署 前言
作者:吴业亮博客:wuyeliang.blog.csdn.net一、核心加速技术原理1. FlashAttention:注意力计算的内存优化革命核心原理传统