最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2025-06-1699 阅读量

一、安装ollama export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download" curl

2025-06-0573 阅读量

1、安装docker 这里建议用docker来部署,方便简单 安装教程需要自己找详细的,会用到跳过 如果你没有安装 Docker,可以按照以

2025-05-3074 阅读量

本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署

2025-05-2782 阅读量

文章目录 前言电脑配置:安装的Deepseek版本:使用的UI框架:体验效果展示:本地部署体验总结 部署过程Ollama部署拉取模型

2025-05-2092 阅读量

本篇文章旨在记录Ubuntu24.04下基于Docker运行Dify+Ollama+Xinference部署本地大模型工程,仅供参考。 目录 一、概述 二、部署

2025-05-17132 阅读量

自己捣鼓玩玩哈,正好有机子 1. 安装驱动前的系统配置工作 卸载原有驱动并禁用nouveau sudo apt remove --purge nvidia*su

2025-05-1766 阅读量

随着人工智能技术的飞速发展,本地部署大型语言模型(LLM)已成为许多技术爱好者的热门选择。本地部署不仅能够保护隐私,还能

2025-05-1470 阅读量

目录 一、设置环境变量 二、开放防火墙端口 方法一:通过图形界面开放端口 方法二:通过命令行开放端口 三、测试局域网访问 四、

2025-05-1296 阅读量

在 macOS 上,Ollama 默认将模型存储在 ~/.ollama/models 目录。如果您希望更改模型的存储路径,可以通过设置环境变量 OLLA