最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2025-05-1790 阅读量

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama

2025-05-17132 阅读量

自己捣鼓玩玩哈,正好有机子 1. 安装驱动前的系统配置工作 卸载原有驱动并禁用nouveau sudo apt remove --purge nvidia*su

2025-05-1765 阅读量

随着人工智能技术的飞速发展,本地部署大型语言模型(LLM)已成为许多技术爱好者的热门选择。本地部署不仅能够保护隐私,还能

2025-05-1684 阅读量

一.安装llama-factory llama-factort的网站:https://github.com/hiyouga/LLaMA-Factory 安装llama-factory很简单,打开gith

2025-05-1470 阅读量

目录 一、设置环境变量 二、开放防火墙端口 方法一:通过图形界面开放端口 方法二:通过命令行开放端口 三、测试局域网访问 四、

2025-05-1491 阅读量

引言 随着大语言模型(LLM)参数规模突破千亿级,基于人类反馈的强化学习(RLHF)成为提升模型对齐能力的关键技术。OpenRLHF

2025-05-1296 阅读量

在 macOS 上,Ollama 默认将模型存储在 ~/.ollama/models 目录。如果您希望更改模型的存储路径,可以通过设置环境变量 OLLA

2025-05-12131 阅读量

文章目录 省流结论机器配置不同量化模型占用显存1. 创建虚拟环境2. 创建测试jsonl文件3. 新建测试脚本3. 默认加载方式,单

2025-05-1055 阅读量

              安装ollama操作记录         简介         Ollama 是一个致力于推动本地人工智能模型开发