\>\>\>\> تنبيه gd2md-html: رابط الصورة المضمنة في المصدر المُولد وتخزين الصور على خادمك. ملاحظة: قد لا تظهر الصور في ملف zip المُصدّر من مستندات Google بنفس الترتيب كما هي في مستندك. يرجى التحقق من الصور!
----->
إذا لم تكن مطورًا، فلماذا في العالم ترغب في تشغيل نموذج ذكاء اصطناعي مفتوح المصدر على جهاز الكمبيوتر المنزلي الخاص بك؟
يتضح أن هناك العديد من الأسباب الجيدة. ومع نماذج مفتوحة المصدر المجانية التي تتحسن أكثر من أي وقت مضى - وسهلة الاستخدام، مع متطلبات أجهزة بسيطة - فإن الوقت الآن مناسب جدًا لتجربتها.
إليك بعض الأسباب التي تجعل النماذج مفتوحة المصدر أفضل من دفع $20 شهريًا لـ ChatGPT أو Perplexity أو Google:
إنه مجاني. لا توجد رسوم اشتراك.
تبقى بياناتك على جهازك.
يعمل بدون اتصال بالإنترنت، لا حاجة للإنترنت.
يمكنك تدريب وتخصيص نموذجك لحالات استخدام محددة، مثل الكتابة الإبداعية أو… حسنًا، أي شيء.
انهار حاجز الدخول. الآن هناك برامج متخصصة تتيح للمستخدمين تجربة الذكاء الاصطناعي دون كل متاعب تثبيت المكتبات والاعتمادات والإضافات بشكل مستقل. يمكن لأي شخص تقريبًا لديه جهاز كمبيوتر حديث نسبيًا القيام بذلك: يمكن لجهاز لابتوب أو سطح مكتب متوسط المدى مزود بذاكرة فيديو سعة 8 جيجابايت تشغيل نماذج ذات قدرات مفاجئة، وبعض النماذج تعمل على 6 جيجابايت أو حتى 4 جيجابايت من VRAM. وبالنسبة لأبل، فإن أي شريحة من طراز M من السنوات القليلة الماضية ستكون قادرة على تشغيل النماذج المحسنة.
البرنامج مجاني، والإعداد يستغرق دقائق، والخطوة الأكثر رعبًا - اختيار الأداة التي ستستخدمها - تعتمد على سؤال بسيط: هل تفضل النقر على الأزرار أم كتابة الأوامر؟
استوديو LM ضد أولاما
تسيطر منصتان على مجال الذكاء الاصطناعي المحلي، وهما تتناولان المشكلة من زوايا متعارضة.
يحتوي LM Studio على كل شيء في واجهة رسومية مصقولة. يمكنك ببساطة تنزيل التطبيق، وتصفح مكتبة النماذج المدمجة، والنقر للتثبيت، والبدء في الدردشة. تعكس التجربة استخدام ChatGPT، باستثناء أن المعالجة تحدث على جهازك. يحصل مستخدمو ويندوز وماك ولينكس على نفس التجربة السلسة. بالنسبة للمبتدئين، هذه هي النقطة الواضحة للبدء.
تستهدف Ollama المطورين والمستخدمين المتقدمين الذين يعيشون في الطرفية. قم بالتثبيت عبر سطر الأوامر، اسحب النماذج بأمر واحد، ثم قم بكتابة النصوص البرمجية أو أتمتة ما تشاء. إنها خفيفة الوزن وسريعة وتتكامل بسلاسة في سير العمل البرمجي.
منحنى التعلم أكثر حدة، لكن العائد هو المرونة. إنه أيضًا ما يختاره المستخدمون المتقدمون للتنوع وقابلية التخصيص.
تعمل الأداتان بنفس النماذج الأساسية باستخدام محركات تحسين متطابقة. الاختلافات في الأداء ضئيلة.
إعداد LM Studio
قم بزيارة وحمّل المثبت لنظام التشغيل الخاص بك. حجم الملف حوالي 540 ميجابايت. قم بتشغيل المثبت واتبع التعليمات. قم بتشغيل التطبيق.
تلميح 1: إذا سألك عن نوع المستخدم الذي أنت عليه، اختر “مطور”. الملفات الشخصية الأخرى تخفي ببساطة الخيارات لجعل الأمور أسهل.
تلميح 2: سيوصي بتنزيل OSS، نموذج الذكاء الاصطناعي مفتوح المصدر من OpenAI. بدلاً من ذلك، انقر على “تخطي” في الوقت الحالي؛ هناك نماذج أفضل وأصغر ستؤدي عملًا أفضل.
VRAM: المفتاح لتشغيل الذكاء الاصطناعي المحلي
بمجرد تثبيت LM Studio، سيكون البرنامج جاهزًا للتشغيل وسيبدو هكذا:
الآن تحتاج إلى تنزيل نموذج قبل أن يعمل LLM الخاص بك. وكلما كان النموذج أقوى، زادت الموارد التي سيحتاجها.
المورد الحيوي هو VRAM، أو ذاكرة الفيديو على بطاقة الرسوميات الخاصة بك. يتم تحميل LLMs في VRAM أثناء الاستدلال. إذا لم يكن لديك مساحة كافية، فإن الأداء ينهار ويجب على النظام اللجوء إلى ذاكرة الوصول العشوائي الأبطأ. سترغب في تجنب ذلك من خلال الحصول على VRAM كافٍ للنموذج الذي تريد تشغيله.
لمعرفة مقدار VRAM لديك، يمكنك الدخول إلى مدير مهام ويندوز (control+alt+del) والنقر على علامة التبويب GPU، مع التأكد من أنك قد اخترت بطاقة الرسومات المخصصة وليس الرسومات المدمجة على معالج Intel/AMD الخاص بك.
سترى مقدار VRAM الذي تملكه في قسم “ذاكرة GPU المخصصة”.
في أجهزة Mac من سلسلة M، الأمور أسهل لأنهم يتشاركون في الذاكرة العشوائية وذاكرة الفيديو. ستساوي كمية الذاكرة العشوائية على جهازك ذاكرة الفيديو التي يمكنك الوصول إليها.
للتحقق، انقر على شعار آبل، ثم انقر على “حول”. هل ترى الذاكرة؟ هذه هي كمية VRAM لديك.
ستحتاج إلى ما لا يقل عن 8 جيجابايت من VRAM. النماذج في نطاق 7-9 مليار معلمة، المضغوطة باستخدام التكميم 4 بت، تناسب بشكل مريح مع تقديم أداء قوي. ستعرف إذا كان النموذج مضغوطًا لأن المطورين عادة ما يعلنون عن ذلك في الاسم. إذا رأيت BF أو FP أو GGUF في الاسم، فأنت تنظر إلى نموذج مضغوط. كلما كان الرقم أقل (FP32، FP16، FP8، FP4)، كلما استهلك موارد أقل.
ليس من السهل المقارنة، لكن تخيل التقسيم الكمي كدقة شاشتك. سترى نفس الصورة بدقة 8K أو 4K أو 1080p أو 720p. ستكون قادرًا على فهم كل شيء بغض النظر عن الدقة، لكن التكبير والاهتمام بالتفاصيل سيظهر أن صورة 4K تحتوي على معلومات أكثر من 720p، لكنها ستتطلب المزيد من الذاكرة والموارد للتصيير.
لكن بشكل مثالي، إذا كنت جادًا حقًا، فيجب عليك شراء بطاقة رسومية للألعاب جيدة بسعة 24 جيجابايت من VRAM. لا يهم ما إذا كانت جديدة أم لا، ولا يهم مدى سرعتها أو قوتها. في عالم الذكاء الاصطناعي، VRAM هو الملك.
بمجرد أن تعرف مقدار VRAM الذي يمكنك استخدامه، يمكنك معرفة النماذج التي يمكنك تشغيلها من خلال الذهاب إلى آلة حساب VRAM. أو، ببساطة ابدأ بنماذج أصغر أقل من 4 مليارات معلمة ثم انتقل إلى نماذج أكبر حتى يخبرك جهاز الكمبيوتر الخاص بك أنك لا تملك ذاكرة كافية. ( المزيد عن هذه التقنية بعد قليل. )
تنزيل النماذج الخاصة بك
بمجرد أن تعرف حدود جهازك، حان الوقت لتنزيل نموذج. انقر على رمز العدسة المكبرة في الشريط الجانبي الأيسر وابحث عن النموذج بالاسم.
كوان وديب سيك نماذج جيدة لاستخدامها لبدء رحلتك. نعم، إنهم صينيون، ولكن إذا كنت قلقًا بشأن كونك مراقبًا، فيمكنك أن تطمئن. عندما تقوم بتشغيل نموذج اللغة الكبير محليًا، فلن يغادر أي شيء جهازك، لذا لن تتم مراقبتك من قبل الحكومة الصينية أو الحكومة الأمريكية أو أي كيانات تجارية.
بالنسبة للفيروسات، كل ما نوصي به يأتي عبر Hugging Face، حيث يتم فحص البرمجيات على الفور بحثًا عن برامج التجسس والبرمجيات الضارة الأخرى. لكن من الجدير بالذكر أن أفضل نموذج أمريكي هو Llama من Meta، لذا قد ترغب في اختياره إذا كنت وطنيًا. ( نقدم توصيات أخرى في القسم الأخير. )
لاحظ أن النماذج تتصرف بشكل مختلف اعتمادًا على مجموعة البيانات التدريبية وتقنيات الضبط الدقيق المستخدمة لبنائها. بغض النظر عن Grok الخاص بإيلون ماسك، لا يوجد شيء مثل نموذج غير متحيز لأنه لا يوجد شيء مثل المعلومات غير المنحازة. لذا اختر ما يناسبك بناءً على مدى اهتمامك بالجغرافيا السياسية.
في الوقت الحالي، قم بتنزيل كل من النموذج الأصغر والأقل قدرة 3B ( والنموذج 7B. إذا كنت تستطيع تشغيل النموذج 7B، فقم بحذف النموذج 3B ) وحاول تنزيل وتشغيل النموذج 13B وهكذا(. إذا لم تتمكن من تشغيل النسخة 7B، فاحذفها واستخدم النسخة 3B.
بمجرد التحميل، قم بتحميل النموذج من قسم نماذجي. تظهر واجهة الدردشة. اكتب رسالة. يرد النموذج. تهانينا: أنت تقوم بتشغيل ذكاء اصطناعي محلي.
إعطاء نموذجك الوصول إلى الإنترنت
بشكل افتراضي، لا يمكن للنماذج المحلية تصفح الويب. إنها معزولة بتصميمها، لذلك ستقوم بالتفاعل معها بناءً على معرفتها الداخلية. ستعمل بشكل جيد في كتابة القصص القصيرة، والإجابة على الأسئلة، وكتابة بعض الأكواد، إلخ. لكنها لن تعطيك آخر الأخبار، أو تخبرك عن الطقس، أو تتحقق من بريدك الإلكتروني، أو جدول اجتماعات لك.
تغير خوادم بروتوكول سياق النموذج هذا.
تعمل خوادم MCP كجسور بين نموذجك والخدمات الخارجية. هل تريد من الذكاء الاصطناعي الخاص بك البحث في Google، أو التحقق من مستودعات GitHub، أو قراءة المواقع الإلكترونية؟ تجعل خوادم MCP ذلك ممكنًا. أضافت LM Studio دعم MCP في الإصدار 0.3.17، المتاح من خلال علامة التبويب البرنامج. كل خادم يكشف عن أدوات محددة—بحث ويب، وصول إلى الملفات، استدعاءات API.
إذا كنت ترغب في منح النماذج الوصول إلى الإنترنت، فإن دليلنا الكامل لخوادم MCP يشرح عملية الإعداد، بما في ذلك الخيارات الشائعة مثل البحث على الويب والوصول إلى قواعد البيانات.
احفظ الملف وسيتولى LM Studio تحميل الخوادم تلقائيًا. عندما تتحدث مع نموذجك، يمكنه الآن استدعاء هذه الأدوات لجلب البيانات الحية. لقد اكتسب ذكاءك الاصطناعي المحلي قوى خارقة.
نماذجنا الموصى بها لأنظمة 8 جيجابايت
يوجد حرفياً مئات من نماذج اللغة الكبيرة المتاحة لك، من خيارات متعددة الاستخدامات إلى نماذج مصممة بدقة لحالات استخدام متخصصة مثل البرمجة، الطب، التمثيل أو الكتابة الإبداعية.
الأفضل للبرمجة: Nemotron أو DeepSeek هما خياران جيدان. لن يدهشكما، لكنهما سيعملان بشكل جيد مع توليد الكود وتصحيح الأخطاء، متفوقين على معظم البدائل في معايير البرمجة. يقدم DeepSeek-Coder-V2 6.7B خيارًا قويًا آخر، خاصةً للتطوير متعدد اللغات.
الأفضل للمعرفة العامة والتفكير المنطقي: Qwen3 8B. يتمتع النموذج بقدرات رياضية قوية ويعالج الاستفسارات المعقدة بفعالية. يستوعب نافذة السياق الخاصة به مستندات أطول دون فقدان التماسك.
أفضل للكتابة الإبداعية: إصدارات DeepSeek R1، لكنك تحتاج إلى بعض هندسة الموجه الثقيلة. هناك أيضًا تعديلات غير خاضعة للرقابة مثل “abliterated-uncensored-NEO-Imatrix” من OpenAI's GPT-OSS، والتي تعتبر جيدة للرعب؛ أو Dirty-Muse-Writer، والتي تعتبر جيدة للإباحية ) كما يقولون (.
الأفضل للدردشات، وتقليد الأدوار، والخيال التفاعلي، وخدمة العملاء: Mistral 7B ) خاصة Undi95 DPO Mistral 7B( ونسخ Llama التي تتمتع بنوافذ سياق كبيرة. MythoMax L2 13B يحافظ على سمات الشخصية عبر المحادثات الطويلة ويتكيف مع النغمة بشكل طبيعي. بالنسبة لتقليد الأدوار NSFW الأخرى، هناك العديد من الخيارات. قد ترغب في التحقق من بعض النماذج في هذه القائمة.
لـ MCP: Jan-v1-4b و Pokee Research 7b هما نماذج رائعة إذا كنت ترغب في تجربة شيء جديد. DeepSeek R1 هو خيار جيد آخر.
يمكن تنزيل جميع النماذج مباشرة من LM Studio إذا كنت تبحث فقط عن أسمائها.
لاحظ أن مشهد LLM مفتوح المصدر يتغير بسرعة. يتم إطلاق نماذج جديدة أسبوعياً، كل منها يدعي تحسينات. يمكنك التحقق منها في LM Studio، أو تصفح المستودعات المختلفة على Hugging Face. جرب الخيارات بنفسك. تصبح الخيارات السيئة واضحة بسرعة، بفضل الصياغة الغريبة، والأنماط المتكررة، والأخطاء الواقعية. تشعر النماذج الجيدة بأنها مختلفة. إنها تفكر. إنها تفاجئك.
التكنولوجيا تعمل. البرنامج جاهز. من المحتمل أن يكون جهاز الكمبيوتر الخاص بك يمتلك القوة الكافية بالفعل. كل ما تبقى هو تجربته.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تشغيل نموذج ذكاء اصطناعي مفتوح المصدر محليًا سهل - إليك كيفية القيام بذلك
مركز فنون الموضة والترفيه في Decrypt.
اكتشف SCENE
\>\>\>\> تنبيه gd2md-html: رابط الصورة المضمنة في المصدر المُولد وتخزين الصور على خادمك. ملاحظة: قد لا تظهر الصور في ملف zip المُصدّر من مستندات Google بنفس الترتيب كما هي في مستندك. يرجى التحقق من الصور!
----->
إذا لم تكن مطورًا، فلماذا في العالم ترغب في تشغيل نموذج ذكاء اصطناعي مفتوح المصدر على جهاز الكمبيوتر المنزلي الخاص بك؟
يتضح أن هناك العديد من الأسباب الجيدة. ومع نماذج مفتوحة المصدر المجانية التي تتحسن أكثر من أي وقت مضى - وسهلة الاستخدام، مع متطلبات أجهزة بسيطة - فإن الوقت الآن مناسب جدًا لتجربتها.
إليك بعض الأسباب التي تجعل النماذج مفتوحة المصدر أفضل من دفع $20 شهريًا لـ ChatGPT أو Perplexity أو Google:
انهار حاجز الدخول. الآن هناك برامج متخصصة تتيح للمستخدمين تجربة الذكاء الاصطناعي دون كل متاعب تثبيت المكتبات والاعتمادات والإضافات بشكل مستقل. يمكن لأي شخص تقريبًا لديه جهاز كمبيوتر حديث نسبيًا القيام بذلك: يمكن لجهاز لابتوب أو سطح مكتب متوسط المدى مزود بذاكرة فيديو سعة 8 جيجابايت تشغيل نماذج ذات قدرات مفاجئة، وبعض النماذج تعمل على 6 جيجابايت أو حتى 4 جيجابايت من VRAM. وبالنسبة لأبل، فإن أي شريحة من طراز M من السنوات القليلة الماضية ستكون قادرة على تشغيل النماذج المحسنة.
البرنامج مجاني، والإعداد يستغرق دقائق، والخطوة الأكثر رعبًا - اختيار الأداة التي ستستخدمها - تعتمد على سؤال بسيط: هل تفضل النقر على الأزرار أم كتابة الأوامر؟
استوديو LM ضد أولاما
تسيطر منصتان على مجال الذكاء الاصطناعي المحلي، وهما تتناولان المشكلة من زوايا متعارضة.
يحتوي LM Studio على كل شيء في واجهة رسومية مصقولة. يمكنك ببساطة تنزيل التطبيق، وتصفح مكتبة النماذج المدمجة، والنقر للتثبيت، والبدء في الدردشة. تعكس التجربة استخدام ChatGPT، باستثناء أن المعالجة تحدث على جهازك. يحصل مستخدمو ويندوز وماك ولينكس على نفس التجربة السلسة. بالنسبة للمبتدئين، هذه هي النقطة الواضحة للبدء.
تستهدف Ollama المطورين والمستخدمين المتقدمين الذين يعيشون في الطرفية. قم بالتثبيت عبر سطر الأوامر، اسحب النماذج بأمر واحد، ثم قم بكتابة النصوص البرمجية أو أتمتة ما تشاء. إنها خفيفة الوزن وسريعة وتتكامل بسلاسة في سير العمل البرمجي.
منحنى التعلم أكثر حدة، لكن العائد هو المرونة. إنه أيضًا ما يختاره المستخدمون المتقدمون للتنوع وقابلية التخصيص.
تعمل الأداتان بنفس النماذج الأساسية باستخدام محركات تحسين متطابقة. الاختلافات في الأداء ضئيلة.
إعداد LM Studio
قم بزيارة وحمّل المثبت لنظام التشغيل الخاص بك. حجم الملف حوالي 540 ميجابايت. قم بتشغيل المثبت واتبع التعليمات. قم بتشغيل التطبيق.
تلميح 1: إذا سألك عن نوع المستخدم الذي أنت عليه، اختر “مطور”. الملفات الشخصية الأخرى تخفي ببساطة الخيارات لجعل الأمور أسهل.
تلميح 2: سيوصي بتنزيل OSS، نموذج الذكاء الاصطناعي مفتوح المصدر من OpenAI. بدلاً من ذلك، انقر على “تخطي” في الوقت الحالي؛ هناك نماذج أفضل وأصغر ستؤدي عملًا أفضل.
VRAM: المفتاح لتشغيل الذكاء الاصطناعي المحلي
بمجرد تثبيت LM Studio، سيكون البرنامج جاهزًا للتشغيل وسيبدو هكذا:
الآن تحتاج إلى تنزيل نموذج قبل أن يعمل LLM الخاص بك. وكلما كان النموذج أقوى، زادت الموارد التي سيحتاجها.
المورد الحيوي هو VRAM، أو ذاكرة الفيديو على بطاقة الرسوميات الخاصة بك. يتم تحميل LLMs في VRAM أثناء الاستدلال. إذا لم يكن لديك مساحة كافية، فإن الأداء ينهار ويجب على النظام اللجوء إلى ذاكرة الوصول العشوائي الأبطأ. سترغب في تجنب ذلك من خلال الحصول على VRAM كافٍ للنموذج الذي تريد تشغيله.
لمعرفة مقدار VRAM لديك، يمكنك الدخول إلى مدير مهام ويندوز (control+alt+del) والنقر على علامة التبويب GPU، مع التأكد من أنك قد اخترت بطاقة الرسومات المخصصة وليس الرسومات المدمجة على معالج Intel/AMD الخاص بك.
سترى مقدار VRAM الذي تملكه في قسم “ذاكرة GPU المخصصة”.
في أجهزة Mac من سلسلة M، الأمور أسهل لأنهم يتشاركون في الذاكرة العشوائية وذاكرة الفيديو. ستساوي كمية الذاكرة العشوائية على جهازك ذاكرة الفيديو التي يمكنك الوصول إليها.
للتحقق، انقر على شعار آبل، ثم انقر على “حول”. هل ترى الذاكرة؟ هذه هي كمية VRAM لديك.
ستحتاج إلى ما لا يقل عن 8 جيجابايت من VRAM. النماذج في نطاق 7-9 مليار معلمة، المضغوطة باستخدام التكميم 4 بت، تناسب بشكل مريح مع تقديم أداء قوي. ستعرف إذا كان النموذج مضغوطًا لأن المطورين عادة ما يعلنون عن ذلك في الاسم. إذا رأيت BF أو FP أو GGUF في الاسم، فأنت تنظر إلى نموذج مضغوط. كلما كان الرقم أقل (FP32، FP16، FP8، FP4)، كلما استهلك موارد أقل.
ليس من السهل المقارنة، لكن تخيل التقسيم الكمي كدقة شاشتك. سترى نفس الصورة بدقة 8K أو 4K أو 1080p أو 720p. ستكون قادرًا على فهم كل شيء بغض النظر عن الدقة، لكن التكبير والاهتمام بالتفاصيل سيظهر أن صورة 4K تحتوي على معلومات أكثر من 720p، لكنها ستتطلب المزيد من الذاكرة والموارد للتصيير.
لكن بشكل مثالي، إذا كنت جادًا حقًا، فيجب عليك شراء بطاقة رسومية للألعاب جيدة بسعة 24 جيجابايت من VRAM. لا يهم ما إذا كانت جديدة أم لا، ولا يهم مدى سرعتها أو قوتها. في عالم الذكاء الاصطناعي، VRAM هو الملك.
بمجرد أن تعرف مقدار VRAM الذي يمكنك استخدامه، يمكنك معرفة النماذج التي يمكنك تشغيلها من خلال الذهاب إلى آلة حساب VRAM. أو، ببساطة ابدأ بنماذج أصغر أقل من 4 مليارات معلمة ثم انتقل إلى نماذج أكبر حتى يخبرك جهاز الكمبيوتر الخاص بك أنك لا تملك ذاكرة كافية. ( المزيد عن هذه التقنية بعد قليل. )
تنزيل النماذج الخاصة بك
بمجرد أن تعرف حدود جهازك، حان الوقت لتنزيل نموذج. انقر على رمز العدسة المكبرة في الشريط الجانبي الأيسر وابحث عن النموذج بالاسم.
كوان وديب سيك نماذج جيدة لاستخدامها لبدء رحلتك. نعم، إنهم صينيون، ولكن إذا كنت قلقًا بشأن كونك مراقبًا، فيمكنك أن تطمئن. عندما تقوم بتشغيل نموذج اللغة الكبير محليًا، فلن يغادر أي شيء جهازك، لذا لن تتم مراقبتك من قبل الحكومة الصينية أو الحكومة الأمريكية أو أي كيانات تجارية.
بالنسبة للفيروسات، كل ما نوصي به يأتي عبر Hugging Face، حيث يتم فحص البرمجيات على الفور بحثًا عن برامج التجسس والبرمجيات الضارة الأخرى. لكن من الجدير بالذكر أن أفضل نموذج أمريكي هو Llama من Meta، لذا قد ترغب في اختياره إذا كنت وطنيًا. ( نقدم توصيات أخرى في القسم الأخير. )
لاحظ أن النماذج تتصرف بشكل مختلف اعتمادًا على مجموعة البيانات التدريبية وتقنيات الضبط الدقيق المستخدمة لبنائها. بغض النظر عن Grok الخاص بإيلون ماسك، لا يوجد شيء مثل نموذج غير متحيز لأنه لا يوجد شيء مثل المعلومات غير المنحازة. لذا اختر ما يناسبك بناءً على مدى اهتمامك بالجغرافيا السياسية.
في الوقت الحالي، قم بتنزيل كل من النموذج الأصغر والأقل قدرة 3B ( والنموذج 7B. إذا كنت تستطيع تشغيل النموذج 7B، فقم بحذف النموذج 3B ) وحاول تنزيل وتشغيل النموذج 13B وهكذا(. إذا لم تتمكن من تشغيل النسخة 7B، فاحذفها واستخدم النسخة 3B.
بمجرد التحميل، قم بتحميل النموذج من قسم نماذجي. تظهر واجهة الدردشة. اكتب رسالة. يرد النموذج. تهانينا: أنت تقوم بتشغيل ذكاء اصطناعي محلي.
إعطاء نموذجك الوصول إلى الإنترنت
بشكل افتراضي، لا يمكن للنماذج المحلية تصفح الويب. إنها معزولة بتصميمها، لذلك ستقوم بالتفاعل معها بناءً على معرفتها الداخلية. ستعمل بشكل جيد في كتابة القصص القصيرة، والإجابة على الأسئلة، وكتابة بعض الأكواد، إلخ. لكنها لن تعطيك آخر الأخبار، أو تخبرك عن الطقس، أو تتحقق من بريدك الإلكتروني، أو جدول اجتماعات لك.
تغير خوادم بروتوكول سياق النموذج هذا.
تعمل خوادم MCP كجسور بين نموذجك والخدمات الخارجية. هل تريد من الذكاء الاصطناعي الخاص بك البحث في Google، أو التحقق من مستودعات GitHub، أو قراءة المواقع الإلكترونية؟ تجعل خوادم MCP ذلك ممكنًا. أضافت LM Studio دعم MCP في الإصدار 0.3.17، المتاح من خلال علامة التبويب البرنامج. كل خادم يكشف عن أدوات محددة—بحث ويب، وصول إلى الملفات، استدعاءات API.
إذا كنت ترغب في منح النماذج الوصول إلى الإنترنت، فإن دليلنا الكامل لخوادم MCP يشرح عملية الإعداد، بما في ذلك الخيارات الشائعة مثل البحث على الويب والوصول إلى قواعد البيانات.
احفظ الملف وسيتولى LM Studio تحميل الخوادم تلقائيًا. عندما تتحدث مع نموذجك، يمكنه الآن استدعاء هذه الأدوات لجلب البيانات الحية. لقد اكتسب ذكاءك الاصطناعي المحلي قوى خارقة.
نماذجنا الموصى بها لأنظمة 8 جيجابايت
يوجد حرفياً مئات من نماذج اللغة الكبيرة المتاحة لك، من خيارات متعددة الاستخدامات إلى نماذج مصممة بدقة لحالات استخدام متخصصة مثل البرمجة، الطب، التمثيل أو الكتابة الإبداعية.
الأفضل للبرمجة: Nemotron أو DeepSeek هما خياران جيدان. لن يدهشكما، لكنهما سيعملان بشكل جيد مع توليد الكود وتصحيح الأخطاء، متفوقين على معظم البدائل في معايير البرمجة. يقدم DeepSeek-Coder-V2 6.7B خيارًا قويًا آخر، خاصةً للتطوير متعدد اللغات.
الأفضل للمعرفة العامة والتفكير المنطقي: Qwen3 8B. يتمتع النموذج بقدرات رياضية قوية ويعالج الاستفسارات المعقدة بفعالية. يستوعب نافذة السياق الخاصة به مستندات أطول دون فقدان التماسك.
أفضل للكتابة الإبداعية: إصدارات DeepSeek R1، لكنك تحتاج إلى بعض هندسة الموجه الثقيلة. هناك أيضًا تعديلات غير خاضعة للرقابة مثل “abliterated-uncensored-NEO-Imatrix” من OpenAI's GPT-OSS، والتي تعتبر جيدة للرعب؛ أو Dirty-Muse-Writer، والتي تعتبر جيدة للإباحية ) كما يقولون (.
الأفضل للدردشات، وتقليد الأدوار، والخيال التفاعلي، وخدمة العملاء: Mistral 7B ) خاصة Undi95 DPO Mistral 7B( ونسخ Llama التي تتمتع بنوافذ سياق كبيرة. MythoMax L2 13B يحافظ على سمات الشخصية عبر المحادثات الطويلة ويتكيف مع النغمة بشكل طبيعي. بالنسبة لتقليد الأدوار NSFW الأخرى، هناك العديد من الخيارات. قد ترغب في التحقق من بعض النماذج في هذه القائمة.
لـ MCP: Jan-v1-4b و Pokee Research 7b هما نماذج رائعة إذا كنت ترغب في تجربة شيء جديد. DeepSeek R1 هو خيار جيد آخر.
يمكن تنزيل جميع النماذج مباشرة من LM Studio إذا كنت تبحث فقط عن أسمائها.
لاحظ أن مشهد LLM مفتوح المصدر يتغير بسرعة. يتم إطلاق نماذج جديدة أسبوعياً، كل منها يدعي تحسينات. يمكنك التحقق منها في LM Studio، أو تصفح المستودعات المختلفة على Hugging Face. جرب الخيارات بنفسك. تصبح الخيارات السيئة واضحة بسرعة، بفضل الصياغة الغريبة، والأنماط المتكررة، والأخطاء الواقعية. تشعر النماذج الجيدة بأنها مختلفة. إنها تفكر. إنها تفاجئك.
التكنولوجيا تعمل. البرنامج جاهز. من المحتمل أن يكون جهاز الكمبيوتر الخاص بك يمتلك القوة الكافية بالفعل. كل ما تبقى هو تجربته.