Qwen3-Coder-Next، أحدث إصدار من فريق أبحاث الذكاء الاصطناعي Qwen التابع لشركة علي بابا، يمثل اختراقاً كبيراً في الذكاء الاصطناعي مفتوح المصدر لتطوير البرمجيات. يقدم هذا النموذج المتخصص الذي يحتوي على 80 مليار معامل أداءً وكيلياً متميزاً مع الحفاظ على بصمة نشطة خفيفة للغاية تبلغ 3 مليارات معامل فقط لكل تمريرة أمامية، مما يتحدى هيمنة مساعدي البرمجة الاحتكاريين من OpenAI وAnthropic وGoogle.
تم إصدار النموذج بموجب ترخيص Apache 2.0 المتساهل، مما يتيح الاستخدام التجاري للمؤسسات والمطورين المستقلين على حد سواء. أوزان النموذج متاحة على Hugging Face في أربعة متغيرات، مصحوبة بتقرير تقني شامل يوضح بالتفصيل نهج التدريب المبتكر والاختراقات المعمارية.
بنية ثورية تحل تحديات السياق الطويل
يكمن الابتكار الأساسي وراء Qwen3-Coder-Next في بنيته الهجينة التي تتجاوز مشكلات القياس التربيعي التي تصيب المحولات التقليدية. من خلال الجمع بين Gated DeltaNet وGated Attention، يدعم النموذج نافذة سياق ضخمة تبلغ 262,144 رمزاً دون عقوبات الكمون الأسية النموذجية لمهام التفكير طويلة المدى.
تعمل بنية Mixture-of-Experts (MoE) فائقة الندرة هذه على تنشيط 3 مليارات معامل فقط لكل تمريرة أمامية بينما تحتوي على 80 مليار معامل إجمالي. والنتيجة هي إنتاجية نظرية أعلى بعشر مرات لمهام مستوى المستودع مقارنة بالنماذج الكثيفة ذات السعة المماثلة، مما يسمح للمطورين بمعالجة قواعد التعليمات البرمجية بأكملها بسرعة نموذج خفيف الوزن ولكن مع الفهم الهيكلي لنظام ضخم.
خط أنابيب التدريب الوكيلي يضع معايير جديدة
على عكس نماذج البرمجة التقليدية المدربة على أزواج نصوص التعليمات البرمجية الثابتة، تم تطوير Qwen3-Coder-Next من خلال خط أنابيب تدريب وكيلي ضخم. يوضح التقرير التقني بالتفصيل خط أنابيب التوليف الذي أنتج 800,000 مهمة برمجة قابلة للتحقق مستخرجة من طلبات السحب الحقيقية على GitHub مقترنة ببيئات قابلة للتنفيذ بالكامل.
البنية التحتية للتدريب، المعروفة باسم MegaFlow، هي نظام تنسيق سحابي أصلي يعتمد على Alibaba Cloud Kubernetes. أثناء التدريب، يتفاعل النموذج مع بيئات حاويات مباشرة، ويتلقى ملاحظات فورية عندما يفشل الكود المُنشأ في اختبارات الوحدة أو يتعطل الحاويات. يسمح هذا التعليم ذو الحلقة المغلقة للنموذج بالتعلم من ملاحظات البيئة وتحسين الحلول في الوقت الفعلي.
دعم شامل للغات وميزات محسّنة
- دعم 370 لغة برمجة، موسعة من 92 في الإصدارات السابقة
- استدعاء الأدوات بنمط XML مع تنسيق qwen3_coder جديد للوسائط الثقيلة بالسلاسل
- التركيز على مستوى المستودع مع ما يقرب من 600 مليار رمز من بيانات التدريب
- نماذج خبراء متخصصة لمهام تطوير الويب وتجربة المستخدم
- استراتيجية Best-Fit Packing لمنع هلوسة السياق أثناء التدريب
أداء المعايير والتميز الأمني
على SWE-Bench Verified، حقق Qwen3-Coder-Next درجة 70.6٪، متفوقاً على DeepSeek-V3.2 بنسبة 70.2٪ ومتأخراً قليلاً فقط عن 74.2٪ لـ GLM-4.7. هذا الأداء مثير للإعجاب بشكل خاص نظراً لعدد المعاملات النشطة الأصغر بكثير للنموذج.
يُظهر النموذج وعياً أمنياً متأصلاً قوياً، متفوقاً على Claude-Opus-4.5 على SecCodeBench في سيناريوهات توليد التعليمات البرمجية بدرجة 61.2٪ مقابل 52.5٪. في التقييمات الأمنية متعددة اللغات، حقق درجة func-sec@1 بنسبة 56.32٪ على معيار CWEval، متجاوزاً كلاً من DeepSeek-V3.2 وGLM-4.7.
“توسيع نطاق التدريب الوكيلي، بدلاً من حجم النموذج وحده، هو محرك رئيسي لتطوير قدرة وكيل البرمجة في العالم الحقيقي.”فريق أبحاث Alibaba Qwen
يمثل الإصدار تحولاً أساسياً في اقتصاديات هندسة الذكاء الاصطناعي، مما يثبت أن طول السياق والإنتاجية هما الرافعتان الأكثر أهمية للنجاح الوكيلي. من خلال إضفاء الطابع الديمقراطي على الوصول إلى المساعدة المتميزة في البرمجة من خلال الترخيص مفتوح المصدر، تحدت علي بابا بشكل فعال عصر النماذج الاحتكارية الضخمة، مما أدى إلى جيل جديد من الخبراء فائقي السرعة والندرة القادرين على التفكير العميق بسرعات غير مسبوقة.
