🪟本地模型部署与知识库搭建(Win)

一、准备环境与模型拉取

1. 安装 Ollama

直接官网下载ollama,默认安装直接走C盘,无法更改,也不要更改。

2. 配置ollama镜像源

# 创建.ollama目录
mkdir "%USERPROFILE%\.ollama"

# 写入配置文件
$config = @{
    registry = @{
        mirrors = @{
            "registry.ollama.ai" = "https://ollama.modelscope.cn"
        }
    }
} | ConvertTo-Json -Depth 10

$config | Out-File -FilePath "$env:USERPROFILE\.ollama\config.json" -Encoding UTF8
    # 下载.net安装脚本
    Invoke-WebRequest -Uri "https://dot.net/v1/dotnet-install.ps1" -OutFile "dotnet-install.ps1"
    
    # 执行安装(注意:这一步可能需要几分钟,请耐心等待,不要关闭窗口)
    .\dotnet-install.ps1 -Channel 6.0 -Runtime "dotnet" -Architecture "x64"
    
    # 检查环境变量是否生效(新打开的窗口通常会自动识别)
    $env:PATH -split ";" | Select-String "dotnet"
    
    # 测试dotnet是否运行
    dotnet --list-runtimes
    
    # 创建服务
    sc.exe create OllamaService binPath= "C:\Users\joeha\AppData\Local\Programs\Ollama\ollama.exe serve" start= auto
    
    # 设置服务描述
    sc.exe description OllamaService "Ollama LLM Service"
    
    # 启动ollama服务
    sc.exe start OllamaService
    
    # 查询服务状态
    sc.exe query OllamaService

如果 `sc.exe start OllamaService` 报了 1053 的错误,可执行以下命令将超时时间从默认30秒延长至60秒:

然后重启电脑,因为 SCM 会在系统启动时读取此注册表项。

3. 拉取模型

二、Python版本与依赖安装

1. 安装[email protected]版本

2. 创建虚拟环境并安装依赖

ai-code-review/ 目录下:

三、配置文件

ai-code-review/ 目录下新建 `config.yaml` 文件:

验证YAML格式:

四、配置RAG并初次构建知识库

ai-code-review/ 目录下创建 rag.py

五、FastAPI 服务

同目录下创建并编辑 main.py 文件内容:

六、知识库索引json

同目录下创建并编辑 knowledge_sources.json 文件内容:

同级目录下创建 `update_kb.py` :

同级目录下创建 `evaluate.py`:

七、测试知识库

八、通过对话形式调用大模型

统计目录下创建 `chat.py`:

注意事项

  1. 路径格式:Windows使用反斜杠\,但在配置文件中建议使用正斜杠/或双反斜杠\\

  2. 环境变量:确保Python和Ollama已正确添加到系统PATH

  3. 权限问题:可能需要以管理员权限运行命令提示符

  4. 防火墙:确保8000端口未被防火墙阻止

  5. 性能优化:在Windows上运行大模型可能需要更多内存,建议至少16GB RAM

  6. GPU支持:如果需要GPU加速,确保安装了正确的CUDA驱动和PyTorch GPU版本

  7. 服务管理:Oll

最后更新于