最新资讯

  • 最新资讯了解最新公司动态及行业资讯

2025-04-27114 阅读量

文章目录 一、引言二、安装Ollama+部署DeepSeekR1三、安装Docker四、安装使用RAGFlow4.1 系统架构4.2 部署流程4.3 使用RAG

2025-04-2786 阅读量

1. 在Linux服务器上部署DeepSeek模型 要在 Linux 上通过 Ollama 安装和使用模型,您可以按照以下步骤进行操作: 步骤 1:安装

2025-04-2761 阅读量

一、简介 RAGFlow 是一个基于对文档的深入理解的开源 RAG(检索增强生成)引擎。当与 LLM 集成时,它能够提供真实的问答功能

2025-04-2757 阅读量

目前次方法好像已经失效了 也下载不下来了… 国内安装Ollama都很慢,因为一直卡在下载中,直接通过官网的链接地址下载方法:

2025-04-2774 阅读量

(llamafactory用多张4090卡,训练qwen14B大模型时oom(out of memory)报错,torch.OutOfMemoryError:CUDA out of memory,Trie

2025-04-2678 阅读量

什么是lora微调 LoRA 提出在预训练模型的参数矩阵上添加低秩分解矩阵来近似每层的参数更新,从而减少适配下游任务所需要训练

2025-04-26122 阅读量

本地服务器部署开源大模型有一个前提,就是得有 GPU 显卡资源,在我下面的例子中我租用了 autodl 中的算力资源,具体是租用了

2025-04-2662 阅读量

如何在centos服务器或者ubuntu服务器上部署大模型,deepseek R1模型。 一、服务器安装部署DeepSeek R1 1、安装ollama并配置dee

2025-04-2549 阅读量

1、创建一个文件夹放ollama #创建文件夹mkdir ollama#进入该文件夹cd ollama 2、下载安装包 2.1命令行下载压缩包 #下载安装包wg