在現今的商業AI模型中,我們輸入的每一個查詢和洞察幾乎都會被收集起來,成為企業訓練數據的一部分。無論您是否付款獲得訪問權限,這已是公開的秘密。若您希望擺脫這樣的狀況,本文將介紹如何透過本地發布的AI來掌控一切。
透過本地發布AI,不僅可避免訂閱費用和雲端依賴,更無需面對企業監控。這意味著您可以在完全私人化的環境中操作AI,根據您的輸入學習並適應您的需求。DeepSeek的開放原始碼模型——DeepSeek-V3和DeepSeek-R1正是為此而設計。將這些模型本地發布後,您可以決定AI如何學習,同時保持數據的完全私密性。
經過全面測試,我們識別出三種高效的設定方案,能夠實現深度學習AI的本地發布。接下來,我們將介紹一些簡單的操作方法,讓這些模型為您提供最佳的使用效果。
💡DeepSeek R1在程式碼表現上尤為出色,並且對硬體需求較低。
自行架設專屬聊天機器人的最佳DeepSeek方案有哪些?
自訂的DeepSeek模型是基於基本模型的專門版本。DeepSeek建構於強大的Transformer架構之上,已具備生成類人類文本的卓越能力。而進一步的自訂將其轉化為您特定領域的專家——無論是客服支援、教育工具,還是專業研究。
透過DeepSeek的精簡模型,靈活性更進一步。這些精簡版模型大小有1.5B、7B、8B、14B、32B和70B,保留了令人印象深刻的推理能力,同時大幅降低了硬體需求。
這對您意味著什麼?
更小的模型(尤其是8B及以下)可以在標準的CPU、GPU或Apple Silicon電腦上順暢運行。無需昂貴的雲計算或專用硬體,您可以在個人電腦上發布並實驗這些強大的AI工具。
這些模型基於以下即將討論的傳證架構,即使在普通的配置下也能發揮卓越的性能。
如何選擇您所需的自訂設置?
不同的路徑並無優劣之分,而是滿足不同需求。在做出決定前,您可以問自己以下問題:
- 您是否要處理不宜在第三方服務器上處理的敏感資訊?
- 您是否有可用的強大硬件?
- 您是否需要在沒有網絡訪問的情況下使用AI助手?
- 是否重要的是避免訂閱費用?
- 多個團隊成員是否需要訪問同一助手?
接下來,我們將根據以下方面逐一探討每種設置:
- 各模型的最佳使用案例
- 發布範圍
- 軟硬件要求
- 優點
無代碼方法:使用CodeGPT快速指南託管自訂DeepSeek R1模型
CodeGPT提供了一種無代碼、雲端驅動的解決方案來運行DeepSeek R1,非常適合那些希望快速設置和共享訪問的團隊和非技術使用者。與GitHub Copilot不同,CodeGPT允許您在流行的IDE(例如VS Code、Cursor和JetBrains)中使用本地LLM(如DeepSeek R1)來進行提示生成、代碼補全、單元測試等。
這也是一個基於網絡的平台,提供AI代理來支持更廣泛的團隊任務。您只需創建一個免費帳號即可開始。
計算需求:
- RAM:至少1GB(更大的模型需要更多內存)
- 硬盤空間:至少20MB(本地模型需要更多空間)
- CPU:Intel Core i5以上(不支持較舊的ARM)
- macOS:除了Sonoma版外均支持
- Linux:支持自2024年起的發布
- Windows:11版或更高
- IDE:VS Code 1.96.0以上
- 不使用VLAN/VPN除非授權
- CodeGPT需要上網
實施過程:
要在CodeGPT上運行DeepSeek R1,您可以執行以下步驟:
-
步驟1:使用Google或GitHub註冊或登錄至codegpt.co,然後創建新的AI代理並選擇DeepSeek R1作為模型。
-
步驟2:在“代理知識”部分上傳您的文檔或GitHub存儲庫,為代理提供數據。此步驟是為了建立您的私人知識庫。
-
步驟3:在“指令”選項卡中設置系統提示,限制回答在您上傳的數據範圍內,並可選新增準確性和行為的規則。
-
步驟4:測試代理的答覆以確保準確性,然後發布並通過公共鏈接或組織內分享。
-
步驟5:定期在“代理歷史”面板中審核代理的性能,使用指標工具來提高準確性和效率。
注意:CodeGPT利用生成性AI的強大功能。但結果資訊可能並不總是正確的,因此需要您自行檢查其結果是否正確。
為何使用CodeGPT運行Custom DeepSeek R1模型?
- 零技術知識需求
- 簡易的文件管理
- 內置分析和監控
- 可向多人分享
基於代碼的方法:如何在LM Studio和Ollama上運行自訂DeepSeek R1模型
方法1:在LM Studio上運行自訂DeepSeek R1
為了完全的數據主權和離線的DeepSeek R1運行,LM Studio提供了一個強大的自助託管方案,儘管這需要一定的技術水平。LM Studio簡化了模型的發現、下載和本地運行,提供了兼容的API以實現無縫集成。它還支持函數調用以進行高級提示交互,並通過“高級配置”來允許模型的細粒度調整。
即便沒有高端硬件,您也能解鎖DeepSeek R1的核心功能。值得注意的是,DeepSeek R1的輸出包括描述性的“思考”階段,提供對其推理過程的洞察,這些階段可選擇顯示或隱藏。
計算需求
- 最小16GB RAM(越多越好)
- 硬盤空間:20GB以上
- CPU:支持AVX2指令集
- macOS:M1/M2/M3,Windows:x86或ARM,Linux:x86
- 不需特定IDE
- GPU:推薦使用以獲得最佳性能(例如NVIDIA RTX 3070)
實施過程:
-
步驟1:從LM Studio的官方網站下載。然後運行安裝程式並按照螢幕上的說明完成安裝。
-
步驟2:打開LM Studio並熟悉側邊欄標籤:“聊天”,“開發者”,“我的模型”和“發現”。
-
步驟3:轉至“發現”選項卡(放大鏡圖標),搜尋“DeepSeek R1 精煉”模型,例如Qwen-7B或Llama 8B。
-
步驟4:根據您的硬件選擇適當的量化版本。例如,Qwen-7B是一個很好的起始點。確保“GGUF”和“MLX”復選框均被選中以確保兼容。
-
步驟5:點擊綠色的“下載”按鈕,等待完成。
-
步驟6:轉至“聊天”標籤,點擊“選擇要加載的模型”,選擇下載的DeepSeek R1模型,並通過輸入您的提示開始與其交互。
注意:對於硬件有限的情況,建議從較小的模型入手。此外,使用LM Studio 0.3.7 Build 2以確保兼容,並利用Hugging Face的模型卡獲取詳細技術規範。
為何使用LM Studio運行DeepSeek R1?
- 完全的數據隱私
- 使用者友好
- 離線運行,即便在飛行中
- 無訂閱費用
- 具備在不同模型間切換的能力
方法2:在Ollama上運行自訂DeepSeek R1
對於本地LLMs的運行,Ollama是廣受歡迎的選擇,特別是如果您熟悉命令行或者需要程式化控制。它支持多種AI模型,包括DeepSeek R1。
這些模型有多種尺寸(1.5b至70b)、量化格式(q4_K_M,q8_0),以及精煉版(qwen-distill,llama-distill)以平衡性能和資源使用。而且它是跨平台的,能夠在macOS、Windows和Linux上順利運行,設置非常簡單。
計算需求
- RAM:至少8GB(處理更大模型時需要更多)
- 硬盤空間:500GB以上,具體情況可根據模型版本而有所不同
- CPU:Intel Core i5或更高
- 軟體環境:
- 作業系統:macOS,Linux和Windows。
- IDE:VSCode版本1.96.0或更高
- Node.js:版本20.0.0或更高。
實施過程:
步驟1:安裝Ollama
在運行DeepSeek R1之前,您需要在系統上安裝Ollama。
-
對於macOS(使用Homebrew),輸入以下命令來安裝Ollama:
brew install ollama
-
對於Windows和Linux:請訪問Ollama的官方網站以獲取特定平台的安裝說明。
步驟2:下載DeepSeek R1模型
一旦Ollama安裝完成,下載DeepSeek R1模型:
ollama pull deepseek-r1
預設情況下,這會下載主要的DeepSeek R1模型(其較大)。如果您需要較小的版本,請通過指定大小的標籤進行:
ollama pull deepseek-r1:1.5b
這會獲取1.5B精煉版本,其針對性能進行了優化。其他例子包括:
ollama pull deepseek-r1:7b
ollama pull deepseek-r1:14b-qwen-distill-q4_K_M
ollama pull deepseek-r1:1.70b-llama-distill-fp16
步驟3:啟動Ollama服務器
為確保Ollama準備運行AI模型,請在新終端窗口中啟動其服務器:
ollama serve
步驟4:在本地運行DeepSeek R1
現在,可以直接從終端與模型進行互動:
ollama run deepseek-r1
對於特定的模型版本,請使用模型標籤(例如7B):
ollama run deepseek-r1:7b
步驟5:向模型發送查詢
您現在可以開始向DeepSeek R1發送提示:
ollama run deepseek-r1:7b “Who is Condia?”
目前為止的步驟涉及直接透過命令行與DeepSeek R1互動。然而,Ollama還提供了API(應用程式編程接口)選項,而非直接輸入命令。
使用Ollama API
以下的步驟展示了如何使用curl命令與API進行交互,這是一種常見的發送網絡API請求的方式。
- 例如,要從終端生成文本,請輸入:
curl http://localhost:11434/api/generate -d '{
“model”: “deepseek-r1:7b”,
“prompt”: “write a Python function that reverses a given string.”
}'
為何使用Ollama運行DeepSeek R1?
- 簡單直接的命令設置
- 所有運行均在您自己的機器上進行,確保數據的完全隱私
- 根據需要輕鬆切換不同的AI模型
結語
了解生成性AI的長處和短處能夠幫助您建立有效的AI助手。定義您的目的,小單位測試實行,並不斷更新您的知識庫。此指南展示了如何輕鬆在本地運行DeepSeek R1模型,通過CodeGPT、LM Studio和Ollama進行運行。現在,您可以開始探索本地LLM的潛力。
自訂DeepSeek R1託管常見問題
Q: 誰擁有DeepSeek?
A: DeepSeek是一家位於中國杭州的私人AI公司,由梁文峰領導的High-Flyer資助。
Q: 我應該選擇哪款DeepSeek R1模型?
A: 若在強大硬件上獲得極致性能,請使用主要的DeepSeek R1模型。若在有限資源上追求更快結果,請選擇1.5B或14B這類精煉版。
Q: 這些自訂選項可以免費使用嗎?
A: Ollama和LM Studio是免費並開源的。DeepSeek R1的許可通常允許免費使用,包括商業應用。雲端服務的一些功能可能需收費。CodeGPT有受限制的免費帳戶可用。
Q: 我能在遠程伺服器或Docker中運行DeepSeek R1嗎?
A: 是的,您可以在Docker容器、雲虛擬機還是內部伺服器上運行DeepSeek R1,只要能安裝Ollama即可。
Q: 是否可能在手機上微調DeepSeek?
A: 直接在手機上進行微調通常是不切實際的,因為需要較高的計算能力。但是,您可以使用手機遠程訪問強大電腦或雲服務來進行微調。
Q: 這些模型適合商業使用嗎?
A: 是的,DeepSeek R1系列模型採用MIT許可證,Qwen精煉版為Apache 2.0。基於Llama的版本則有其自己的許可證。請根據您的特定用途驗證具體的許可證詳情。
Q: 運行DeepSeek R1模型需要什麼硬件?
A: 硬件需求因模型尺寸而異:1.5B模型可在標準PC上跑動,需8GB RAM。7-32B模型需要強大GPU(8-24GB VRAM)及32-64GB RAM。70B以上模型需多GPU設置,擁有高VRAM和128 GB以上RAM。