跳到主要内容

Copilot

预安装和部署准备

系统要求

硬件要求

  • CPU:Intel/AMD 32核或更高
  • 内存:256GB RAM或更高
  • 存储:至少200GB可用磁盘空间
  • GPU:必须支持CUDA。内存大于40GB。建议使用Ampere架构或更高(例如A100、RTX 4090)。

软件要求

  • 操作系统:Ubuntu 22.04
  • CUDA:建议≥11.8(兼容Ampere架构)
  • NVIDIA驱动:≥535.x
  • Docker:≥20.10(必须安装NVIDIA Container Toolkit)

AI包

请联系销售获取AI docker镜像。将AI docker镜像xiangyu-ai.tar保存到服务器。

安装步骤

预安装检查:

  • NVIDIA驱动和CUDA:运行命令nvidia-smi验证驱动版本和CUDA版本是否满足软件要求中指定的要求
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 560.35.03 Driver Version: 560.35.03 CUDA Version: 12.6 |
|-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA L40 On | 00000000:08:00.0 Off | 0 |
| N/A 73C P0 107W / 300W | 1603MiB / 46068MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 1 NVIDIA L40 On | 00000000:09:00.0 Off | 0 |
| N/A 47C P0 84W / 300W | 10817MiB / 46068MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| 0 N/A N/A 7072 C text-embeddings-router 1594MiB |
| 1 N/A N/A 309241 C ...rs/cuda_v12_avx/ollama_llama_server 10808MiB |
+-----------------------------------------------------------------------------------------+
  • Docker环境检查:运行命令docker --version验证Docker版本是否满足软件要求中指定的版本。例如:
Docker version 27.4.1, build b9d17ea
  • NVIDIA Container Toolkit检查:运行命令nvidia-container-runtime --version验证NVIDIA Container Toolkit已安装并运行。例如:
NVIDIA Container Runtime version 1.17.4
commit: 9b69590c7428470a72f2ae05f826412976af1395
spec: 1.2.0

runc version 1.2.2
commit: v1.2.2-0-g7cb3632
spec: 1.2.0
go: go1.22.9
libseccomp: 2.5.3

AI包安装

  • 将祥宇AI镜像文件下载到本地。

  • 运行以下命令将镜像加载到本地Docker库中。

    docker load -i xiangyu-ai.tar

  • 运行以下命令加载LLM。

    docker run --runtime nvidia --gpus all -p 8000:8000 --ipc=host xiangyu-ai:0.7.2 --model /models --served-model-name Qwen2.5-Coder-14B-Instruct

    当屏幕上出现以下信息时,表示模型已成功加载。 RunVLLM

配置Copilot扩展

  • 在上位机软件中打开祥宇AI代码助手界面。

    openExtension

  • 点击下图所示的选择模型图标配置AI模型访问信息,然后选择添加聊天模型configureExtension

  • 在弹出窗口中,选择合适的模型 configureExtension

  • 对于中国大陆以外的用户,建议选择Anthropic或OpenAI。从列表中选择合适的模型并输入您申请的API密钥。 configureExtension

  • 对于中国大陆的用户,建议选择Deepseek。从列表中选择合适的模型(例如Deepseek-coder)并输入您申请的API密钥。 configureExtension

  • 要添加本地部署的模型,点击下面的配置文件链接打开config.yaml文件。 configureExtension

  • 按以下规范配置AI模型访问信息。模型OpenAI/Qwen2.5-Coder-14B-Instruct是指上述AI包安装部分的配置示例。如果通过ollama本地部署模型,请参考- name: qwen2.5-coder 3b配置示例。根据您的部署信息填写适当的参数(模型名称、apiBase等)。

    name: Local Assistant
    version: 1.0.0
    schema: v1
    models:
    - name: OpenAI/Qwen2.5-Coder-14B-Instruct
    provider: openai
    model: Qwen2.5-Coder-14B-Instruct
    apiBase: http://x.x.x.x:8000/v1
    apiKey: test
    roles:
    - chat
    - edit
    - apply
    - autocomplete
    - name: qwen2.5-coder 3b
    provider: ollama
    model: qwen2.5-coder:3b
    apiBase: http://x.x.x.x:11434
    roles:
    - chat
    - edit
    - apply
    - autocomplete
    defaultCompletionOptions:
    contextLength: 32768
    maxTokens: 20480
    context:
    - provider: code
    - provider: docs
    - provider: diff
    - provider: terminal
    - provider: problems
    - provider: folder
    - provider: codebase