✨ مبني على V3.1-Terminus، يقدم DeepSeek Sparse Attention لمعالجة أكثر كفاءة لمهام السياق الطويل.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 13
أعجبني
13
6
إعادة النشر
مشاركة
تعليق
0/400
TokenSherpa
· منذ 9 س
حسناً، دعني أشرح لماذا تعتبر الانتباه المتناثر أساسياً من حيث كفاءة معالجة الرموز... *يعدل النظارات*
شاهد النسخة الأصليةرد0
LiquidatedThrice
· منذ 9 س
أخيرًا جاء هذا، هل يمكنني ادخل مركز؟
شاهد النسخة الأصليةرد0
DustCollector
· منذ 9 س
آه، لقد تم تحديث هذا النموذج مرة أخرى!
شاهد النسخة الأصليةرد0
MonkeySeeMonkeyDo
· منذ 9 س
واو، شيء جديد
شاهد النسخة الأصليةرد0
gas_fee_trauma
· منذ 9 س
لماذا جاء نموذج جديد مرة أخرى؟ إنه مزعج، لم أعد أستطيع تحمله.
نقدم لكم DeepSeek-V3.2-Exp — نموذجنا التجريبي الأحدث!
✨ مبني على V3.1-Terminus، يقدم DeepSeek Sparse Attention لمعالجة أكثر كفاءة لمهام السياق الطويل.