דילוג לתוכן

TechHorizons

ככה תפעילו את DeepSeek R1 מקומית במחשב ובסמארטפון

רוצים להריץ את DeepSeek R1 מקומית בלי לשלוח מידע לסין? כך תתקינו אותו על Windows, Mac, אנדרואיד ואייפון, ותשתמשו בו ללא אינטרנט.
עודכן לאחרונה ב : 05/03/2025 - 11:51 - Ariel
deepseek_ai (1)
@Deepseek

שומרים על פרטיות? כך תפעילו את DeepSeek R1 מקומית

  • למחשבים (Windows / Mac / Linux): ניתן להתקין LM Studio כדי להריץ את מודל DeepSeek R1 7B באופן פרטי וללא חיבור לאינטרנט (נדרש לפחות 8GB RAM).
  • לחלופין, אפשר להשתמש ב-Ollama, שמאפשר להריץ גם מודל קטן יותר (1.5B) למחשבים עם פחות זיכרון.
  • לסמארטפונים (אנדרואיד / iPhone): אפשר להריץ את DeepSeek R1 דרך אפליקציית PocketPal AI, הזמינה בחינם.

כדי להריץ את DeepSeek R1 מקומית על Windows, Mac או Linux, המחשב שלכם חייב לכלול לפחות 8GB RAM.
עם זיכרון כזה, תוכלו להריץ את דגם 1.5B, המספק פלט בקצב של כ-13 טוקנים לשנייה.
אפשר גם להריץ את דגם 7B, אך הוא צורך כ-4GB RAM, מה שעשוי להאט את המחשב.

אם ברשותכם יותר זיכרון RAM וחומרה חזקה יותר, תוכלו להריץ גם דגמים 14B, 32B ו-70B. עם זאת, יש לקחת בחשבון שכרגע מרבית התוכנות אינן תומכות ב-NPU (יחידת עיבוד נוירונית) ומסתמכות בעיקר על המעבד (CPU), ובמקרים מסוימים, על כרטיס המסך (GPU) (למשתמשי Nvidia ברמה גבוהה).

מה לגבי סמארטפונים?

כדי להריץ את DeepSeek R1 על אנדרואיד או אייפון, מומלץ לפחות 6GB RAM.
ניתן להשתמש במודל במכשירים עם Snapdragon 8 Elite, או ערכות שבבים מסדרות Snapdragon 8 ו-7.

רוצים לדעת איך DeepSeek R1 משתווה ל-ChatGPT 0.1? בקרוב נסביר גם על זה!

הפעלת DeepSeek R1 במחשב באמצעות LM Studio

LM Studio היא הדרך הקלה ביותר להריץ את DeepSeek R1 מקומית על Windows, Mac ו-Linux.
לתוכנה יש ממשק ידידותי למשתמש, והיא מאפשרת להוריד ולהפעיל מודלים של בינה מלאכותית בכמה לחיצות.
בנוסף, LM Studio חינמית לחלוטין!

כך תתקינו ותפעילו את DeepSeek R1 באמצעות LM Studio:

  • הורידו והתקינו את LM Studio 0.3.8 או גרסה חדשה יותר (להורדה בחינם) למחשב שלכם.
  • פתחו את LM Studio ועברו לחלונית החיפוש בצד שמאל.
  • תחת Model Search, חפשו את המודל "DeepSeek R1 Distill (Qwen 7B)" (זמין דרך Hugging Face).
  • לחצו על Download.
    • דרישות מינימליות להפעלת המודל:
      לפחות 5GB אחסון פנוי
      לפחות 8GB RAM
download-deepseek-r1-model-using-lm-studio
  • לאחר שהמודל DeepSeek R1 ירד, עברו ללשונית "Chat".
  • בחרו את המודל מהרשימה ולחצו על "Load Model" כדי לטעון אותו.
load-deepseek-r1-model-on-windows
  • פשוט בחרו את המודל ולחצו על "Load Model" כדי לטעון אותו.
  • אם מופיעה שגיאה, הפחיתו את ערך "GPU Offload" ל-0 ונסו שוב.
run-deepseek-r1-model-using-lm-studio
  • כעת תוכלו לשוחח עם DeepSeek R1 מקומית ישירות מהמחשב שלכם – ללא צורך בחיבור לאינטרנט.
    🎉 תהנו מהבינה המלאכותית אצלכם במחשב!

הפעלת DeepSeek R1 מקומית במחשב באמצעות Ollama

דרך נוספת להריץ את DeepSeek R1 מקומית היא באמצעות Ollama, תוכנה חינמית התומכת בהרצת מודלים של בינה מלאכותית על Windows, macOS ו-Linux.

כך תתקינו ותפעילו את DeepSeek R1 באמצעות Ollama:

  1. התקינו את Ollama (להורדה בחינם) למחשב שלכם.
  2. פתחו את הטרמינל (Terminal) או שורת הפקודה (Command Prompt).
  3. להרצת מודל 1.5B (מותאם למחשבים חלשים), השתמשו בפקודה הבאה ( זהו מודל קטן, המבוסס על Qwen ומותאם למחשבים חלשים.
     צורך רק 1.1GB זיכרון RAM.)
				
					ollama run deepseek-r1:1.5b
				
			
install-deepseek-r1-using-ollama
  • אם יש לכם זיכרון RAM גבוה וחומרה חזקה, תוכלו להריץ מודלים גדולים יותר כמו 7B, 14B, 32B או 70B המבוססים על DeepSeek R1.

    • ניתן למצוא את הפקודות להפעלת הדגמים השונים כאן.
  • להפעלת מודל 7B של DeepSeek R1 (צורך 4.7GB RAM), השתמשו בפקודה:

				
					ollama run deepseek-r1:7b
				
			
install-deepseek-r1-7b-model-using-ollama
  • כעת תוכלו לשוחח עם DeepSeek R1 מקומית ישירות מהטרמינל – ללא צורך בחיבור לאינטרנט.
  • כדי להפסיק את השיחה ולצאת, השתמשו בקיצור Ctrl + D.
run-deepseek-r1-7b-model-using-ollama

הפעלת DeepSeek R1 מקומית באמצעות Open WebUI

אם אתם רוצים להשתמש ב-DeepSeek R1 בממשק דומה ל-ChatGPT, ניתן להתקין את Open WebUI (GitHub) על Windows או Mac.
Open WebUI משתמש ב-Ollama ומציע תכונות מתקדמות כמו פענוח קוד (Code Interpreter), שיחות קוליות, ניתוח קבצים, הנחיות מותאמות אישית ועוד.

כך תתקינו את Open WebUI ותפעילו את DeepSeek R1 מקומית:

  1. וודאו שהתקנתם Python ו-Pip על המחשב שלכם.
  2. פתחו את הטרמינל (Terminal) או שורת הפקודה (Command Prompt).
  3. התקינו את Open WebUI באמצעות הפקודה הבאה (תהליך ההתקנה עשוי לקחת מספר דקות)
				
					pip install open-webui
				
			
install-open-webui-via-terminal

לאחר ההתקנה, הריצו את מודל DeepSeek R1 דרך Ollama בטרמינל.

  • ניתן לעקוב אחר ההוראות שהוזכרו קודם להפעלת Ollama.
  • לדוגמה, להרצת מודל 1.5B, השתמשו בפקודה:
				
					ollama run deepseek-r1:1.5b
				
			
run-deepseek-r1-model-via-ollama

לאחר ש-Ollama פועל ומריץ את המודל, הפעילו את שרת Open WebUI באמצעות הפקודה הבאה

				
					open-webui serve

				
			
  • לאחר שהשרת הופעל, לחצו על http://localhost:8080 כדי לפתוח את Open WebUI בדפדפן.
  • לחצו על "Get Started" והזינו את שמכם להתחלת השימוש.
  • כעת תוכלו להשתמש ב-DeepSeek R1 בממשק ידידותי למשתמש דרך Open WebUI.
  • Open WebUI יזהה באופן אוטומטי את מודל DeepSeek R1 וייבחר אותו בתפריט הנפתח.
open-webui-running-deepseek-locally

לסגירת Ollama ו-Open WebUI,

  • לחצו לחיצה ימנית על סמל Ollama באזור ההתראות (System Tray) ובחרו "Quit".
  • ניתן כעת לסגור את חלון הטרמינל.

הפעלת DeepSeek R1 מקומית באנדרואיד ובאייפון

ניתן להריץ את DeepSeek R1 מקומית גם על מכשירי אנדרואיד ואייפון.
לאחר שבחנתי מספר אפליקציות כמו LM Playground, Private AI, Llamao, מצאתי ש-PocketPal AI היא האפשרות הטובה ביותר – חינמית לחלוטין.

היתרון הגדול הוא ש-PocketPal AI זמינה גם ל-iOS, ואינה דורשת תשלום, בניגוד ל-Apollo AI או Private LLM.

כך תתחילו להשתמש ב-DeepSeek R1 בסמארטפון:

  1. התקינו את אפליקציית PocketPal AI מחנות האפליקציות.
  2. פתחו את האפליקציה ולחצו על "Go to Models".
  3. הקליקו על כפתור "+" בתחתית המסך.
  4. בחרו "Add from Hugging Face".
  • חפשו "deepseek" בשורת החיפוש.
  • גללו למטה עד שתמצאו את "DeepSeek-R1-Distill-Qwen-1.5B" מאת bartowski.
  • פתחו את הדגם והורידו את הגרסה המתאימה בהתאם לזיכרון הזמין במכשיר שלכם.
    • לדוגמה, במדריך זה הורדתי את המודל "Q5_K_M", שצורך כ-1.3GB RAM.
  • לאחר שהמודל ירד, חזרו למסך הראשי ולחצו על "Load" כדי לטעון אותו.
load-the-deepseek-r1-model-on-android-locally

כעת תוכלו לשוחח עם מודל DeepSeek R1 מקומית ישירות מהסמארטפון שלכם – ללא צורך בחיבור לאינטרנט!

running-deepseek-r1-model-locally-on-android

סיכום

אלו היו הדרכים השונות להתקין ולהפעיל את DeepSeek R1 מקומית על המחשב והסמארטפון, כך שתוכלו לשוחח עם המודל ללא חיבור לאינטרנט.

במהלך הבדיקות שלי, מודלי 1.5B ו-7B נטו להזיות ולשגיאות בעובדות היסטוריות.
עם זאת, הם מתאימים היטב לכתיבה יצירתית ולחישובים מתמטיים.

אם ברשותכם חומרה חזקה, אני ממליץ לבדוק את מודל DeepSeek R1 32B,
המציע ביצועים משופרים בקידוד ובהסקת מסקנות מבוססת היגיון. 🚀

חדשות אחרונות
הישארו מעודכנים