本地知识库-ragflow

2025/1/29

# 前提条件

# 系统配置

  • CPU >= 4 cores
  • RAM >= 16 GB
  • Disk >= 50 GB

# 环境

# 安装Ragflow

可根据项目安装文档进行安装 ragflow-github (opens new window) ,不同版本可能安装步骤不同,已项目README为准

具体如下:

  1. linux环境需配置

    Ensure vm.max_map_count >= 262144:

    To check the value of vm.max_map_count:

    $ sysctl vm.max_map_count
    
    1

    Reset vm.max_map_count to a value at least 262144 if it is not.

    # In this case, we set it to 262144:
    $ sudo sysctl -w vm.max_map_count=262144
    
    1
    2

    This change will be reset after a system reboot. To ensure your change remains permanent, add or update the vm.max_map_count value in /etc/sysctl.conf accordingly:

    vm.max_map_count=262144
    
    1
  2. Clone the repo:

    $ git clone https://github.com/infiniflow/ragflow.git
    
    1
  3. 启动

    $ cd ragflow
    $ docker compose -f docker/docker-compose.yml up -d
    
    1
    2
  4. 查看启动日志

    docker logs -f ragflow-server
    
    1
  5. 访问

    默认运行在80端口,http://localhost:80即可访问

# 配置Ragflow

通过ollama管理模型,点击右上角头像进入设置,选择模型提供商,在【待添加的模型】中找到ollama

  1. 添加qwen2.5:7b模型
    1. 模型名称建议通过ollama list 查看模型并复制模型名称
    2. 类型则根据实际模型类型配置
    3. 基础URL则为ollama的url,默认url为127.0.0.1:11434,可将ollama改为监听0.0.0.0来获取本机网卡ip填入,否则不通。
    4. API Key是给一些付费的模型服务商准备的,本地模型不需要
    5. 最大tokens数根据需求填写
    6. 是否支持vision,多模态模型需要,其他不需要开启

模型提供商

  1. 添加embedding模型,推荐shaw/dmeta-embedding-zh:latest
    1. ollama中安装此模型,在ollama.com 搜索此模型找到其安装命令,命令行安装即可
    2. 如上在RAGFlow中的ollama中添加embedding模型
  2. 点击【系统模型配置】

系统模型配置

# 新建知识库

点击知识库,新建知识库,点击进入刚创建的知识库,完成以下配置

  1. 点击【配置】,语言根据自己知识库语料类型选择。解析方法可根据每个方法适用的类型自行选择

知识库配置

  1. 解析数据

    1. 【数据集】,解析数据

      解析数据

# 聊天

  1. 新建助理,点击左上角新建助理
    1. 助理设置,选择知识库,其他按需填写。
    2. 模型设置
Last Updated: 2025/2/11
只爱西经
林一