• <span id="ycodp"></span>
    <span id="ycodp"><small id="ycodp"></small></span>
    1. <label id="ycodp"></label>
      <rt id="ycodp"><tr id="ycodp"><strike id="ycodp"></strike></tr></rt>
      <i id="ycodp"><strong id="ycodp"><ul id="ycodp"></ul></strong></i>
    2. 幫助中心

      這里有最新的使用文檔和教程

      < 返回

      Linux如何本地部署DeepSeek?(親測可用)

      2025-02-07 17:56 作者:31IDC 閱讀量:4608 所屬分類:物理服務器

      Linux如何本地部署DeepSeek?GPU服務器如何部署DeepSeek?

      一、DeepSeek R1 簡介

      DeepSeek R1 是一款開源 AI 模型,其性能可與 OpenAI 的 GPT-4 和 Claude 3.5 Sonnet 等頂級模型媲美,尤其在數學、編程和推理等任務上表現出色。最重要的是,它是免費、私密的,可以在本地硬件上離線運行。

      DeepSeek R1 提供多個參數規模的版本,從輕量級的 1.5b 參數模型到高性能的 671b 版本。它基于 Qwen 7B 架構的精簡優化版本,既保持強大性能,又具備更高的計算效率。

      其主要亮點包括:

      完全開源,可自由使用。

      支持本地運行,無需依賴云服務器。

      數據完全可控,確保隱私安全。

      二、為什么選擇本地部署?

      本地運行 AI 模型有以下優勢:

      隱私保障:所有數據均存儲在本地,避免敏感信息泄露。

      零額外成本:DeepSeek R1 免費運行,無需訂閱或額外費用。

      完全控制:可以進行微調和本地優化,無需外部依賴。

      三、硬件要求

      部署 DeepSeek R1 需要一定的硬件資源,以下是不同模型對計算機,GPU的基本要求, 僅供參考:(如果本機Window系統部署去體驗,建議選擇1.5b 版本,比較快速。)

      四、安裝步驟

      首先準備一臺有GPU的服務器,安裝Ubuntu 22 系統(推薦安裝此系統)

      步驟 1:安裝 Ollama

      Ollama 是一款本地 AI 運行工具,可幫助用戶輕松運行 DeepSeek R1。

      下載地址:https://ollama.com/download/linux

      直接執行 curl -fsSL https://ollama.com/install.sh | sh

      安裝完成后,Ollama 提供了在終端直接運行 AI 模型的功能。

      步驟 2:下載 DeepSeek R1 模型

      下載地址:https://ollama.com/library/deepseek-r1

      在終端中運行以下命令,根據你的硬件選擇合適的模型:

      # 下載 1.5b 版本(適用于 CPU 及低配 GPU)

      ollama run deepseek-r1:1.5b

       

      # 下載 7b 版本

      ollama run deepseek-r1:7b

       

      # 下載 8b 版本

      ollama run deepseek-r1:8b

       

      # 下載 14b 版本

      ollama run deepseek-r1:14b

       

      # 下載 32b 版本

      ollama run deepseek-r1:32b

       

      # 下載 70b 版本

      ollama run deepseek-r1:70b

       

      # 下載 671b 版本(最高性能)

      ollama run deepseek-r1:671b

       

      安裝完成如下:

       

      模型下載速度取決于網絡狀況,可能需要幾分鐘到幾十分鐘不等。

      步驟 3:安裝 Chatbox(可選)

      為了獲得更好的交互體驗,可以安裝 Chatbox 作為 GUI 界面。

      下載地址:https://chatboxai.app/zh#download

      下載后直接雙擊后即可。

      安裝完成后,進行以下配置:

      在“配置 API 模型”選項中選擇 Ollama API。

      假如您的服務器IP是:192.63.63.63

      那么這里設置 API 主機為:http://192.63.63.63:11434

      選擇 DeepSeek R1 作為默認模型。

      保存設置。

       

      請注意:默認安裝好的 Ollama 服務是不對外開放的,如何配置遠程 Ollama 服務?

      默認情況下,Ollama 服務僅在本地運行,不對外提供服務。要使 Ollama 服務能夠對外提供服務,你需要設置以下兩個環境變量:

      如果 Ollama 作為 systemd 服務運行,應使用 systemctl 設置環境變量:

      1. 調用 systemctl edit ollama.service 編輯 systemd 服務配置。這將打開一個編輯器。

      2. 在 [Service] 部分下為每個環境變量添加一行 Environment:

        [Service]
        Environment="OLLAMA_HOST=0.0.0.0"
        Environment="OLLAMA_ORIGINS=*"
        
      3. 按Ctrl+X退出,再按Y保存并退出

      4. 重新加載 systemd 并重啟 Ollama:

      systemctl daemon-reload
      systemctl restart ollama

      五、功能演示

      此時打開Chatbox ,選擇對接好的DeepSeek ,即可正常對話。

      31IDC - 12 年深耕海外 IDC 高端資源

      主站蜘蛛池模板: 色综合久久久久久久久五月| 亚洲综合久久综合激情久久| 久久综合色天天久久综合图片 | 久久天天躁狠狠躁夜夜躁综合| 亚洲婷婷五月综合狠狠爱 | 色综合天天综合网站中国| 激情伊人五月天久久综合| 色老头综合免费视频| 婷婷成人丁香五月综合激情| 91精品综合久久久久久五月天| 狠狠色综合TV久久久久久| 国产综合亚洲专区在线| 香蕉蕉亚亚洲aav综合| 小说区图片区综合久久88| 狼狼综合久久久久综合网| 国产激情电影综合在线看 | 伊人不卡久久大香线蕉综合影院 | 综合一区自拍亚洲综合图区| 久久久久亚洲AV综合波多野结衣| 久久精品水蜜桃av综合天堂| 乱色熟女综合一区二区三区| 久久综合国产乱子伦精品免费| 小说区图片区综合久久88| 国产色丁香久久综合| 国产成人综合美国十次| 国产成人AV综合久久| 一本色道久久88综合亚洲精品高清| 亚洲国产日韩综合久久精品| 久久婷婷五月综合国产尤物app| 狠狠色噜噜狠狠狠狠色综合久AV| 亚洲欧美综合精品成人导航| 图图资源网亚洲综合网站| 伊人狠狠色丁香综合尤物| 精品综合一区二区三区| 天天狠狠色综合图片区| 伊人久久大香线蕉综合网站| 亚洲综合激情九月婷婷| 久久精品桃花综合| 亚洲国产aⅴ综合网| 精品国产国产综合精品 | 亚洲综合久久精品无码色欲|