علي بابا تطلق ذكاء اصطناعي جديد

DeepSeek وعلي بابا: ثورة في صناعة الذكاء الاصطناعي
سنتعرف اليوم مع موقع ريال ويب على التطورات الأخيرة في مجال الذكاء الاصطناعي، وكيف تفوقت شركتا DeepSeek وعلي بابا في صناعة النماذج اللغوية المتقدمة.
ثورة DeepSeek في الذكاء الاصطناعي
تمكنت شركة DeepSeek من إحداث ثورة في صناعة الذكاء الاصطناعي في الأيام الأخيرة، وذلك من خلال توفير نموذج لغوي متاح للجميع قادر على المنافسة، بل وحتى التفوق في الأداء والكفاءة، على نماذج من شركات أمريكية مثل غوغل وOpenAI. بعد أيام قليلة من إطلاقه، أصبح تطبيقه بالفعل الأكثر تنزيلًا على منصات الهاتف المحمول الرئيسية، وأشادت بعض الشخصيات الأكثر أهمية في الصناعة، مثل سام ألتمان أو ساتيا ناديلا، بالإنجاز الذي حققه هذا التطبيق.
منافسة علي بابا مع Qwen 2.5 Max
ولقد بدأت للتو حرب بناء أقوى وأكثر نماذج الذكاء الاصطناعي كفاءة، ويبدو أن كل شيء يشير إلى أن وادي السيليكون لم يعد مركز هذه الصناعة المتنامية، حيث لم يمر سوى أيام قليلة منذ ظهور DeepSeek وقامت الصينية العملاقة علي بابا بإطلاق Qwen 2.5 Max، والذي يتمتع بقدرته على التفوق على DeepSeek في الغالبية العظمى من الاختبارات.
كشفت شركة علي بابا، من خلال منشور على مدونة Qwen الرسمية، عن التقدم الذي أحرزته مع أحدث إصدار من نموذج اللغة الخاص بها. عند مقارنة Qwen 2.5 Max مع أحدث طرازات Llama وDeepSeek، كانت النتائج التي حصل عليها طراز علي بابا متفوقة في كثير من الحالات.
تقنية Mixture of Experts (MoE)
يستخدم Qwen 2.5 Max بنية مشابهة لـ DeepSeek، والمعروفة باسم Mixture of Experts أو MoE، والتي تسمح للنماذج بأن تكون أكثر كفاءة وقابلية للتطوير. في هذا التصميم، بدلاً من وجود نموذج مترابط يحتوي على كل المعرفة، يتم تقسيمه إلى العديد من “الخبراء”، كل منهم متخصص في مجموعة فرعية من البيانات أو المهام. هناك عنصر آخر، وهو “الموجه”، يقرر أي هؤلاء الخبراء هو الأفضل لمعالجة إدخال محدد.
التدريب والتطوير
إن استخدام هذه التقنية، جنبًا إلى جنب مع التقدم في التدريب بأكثر من 20 مليار رمز ومنهجيات الضبط الدقيق الخاضع للإشراف (SFT) والتعلم الإحالي من ردود الفعل البشرية (RLHF)، سمح لشركة علي بابا بإنشاء أحد أكثر النماذج تقدمًا في لحظة. وقد أظهرت الاختبارات أن Qwen2.5-Max يتفوق على DeepSeek V3 في معايير مختلفة.
توفر Qwen 2.5 Max
أصبح Qwen 2.5 Max متاحًا الآن للاستخدام، سواء من خلال منصات مثل HuggingFace، أو من خلال برنامج الدردشة الرسمي الخاص بـ Qwen، والذي يسمح لك باختيار النموذج المطلوب من خلال قائمة منسدلة موجودة في الزاوية اليسرى العليا.
– الرابط Qwen 2.5 Max
الأسئلة الشائعة (FAQ)
ما هي تقنية Mixture of Experts (MoE)؟
هي تقنية تسمح بتقسيم النموذج إلى عدة “خبراء” متخصصين، مما يجعل النموذج أكثر كفاءة وقابلية للتطوير.
كيف تفوق Qwen 2.5 Max على DeepSeek؟
تفوق Qwen 2.5 Max على DeepSeek في العديد من الاختبارات بفضل استخدام تقنية MoE وتحسينات التدريب.
هل يمكنني تجربة Qwen 2.5 Max؟
نعم، يمكنك تجربة Qwen 2.5 Max من خلال منصات مثل HuggingFace أو برنامج الدردشة الرسمي الخاص بـ Qwen.