إنفيديا في CES 2026: رقائق جديدة وأداء خماسي لمستقبل الذكاء الاصطناعي

إنفيديا تعلن دخول الجيل الجديد من الرقائق مرحلة الإنتاج الكامل وتعد بقفزة غير مسبوقة في الذكاء الاصطناعي

  • تاريخ النشر: منذ يومين زمن القراءة: 3 دقائق قراءة
إنفيديا في CES 2026: رقائق جديدة وأداء خماسي لمستقبل الذكاء الاصطناعي

أعلن جنسن هوانغ، الرئيس التنفيذي لشركة إنفيديا (Nvidia)، أن الجيل المقبل من رقائق الشركة دخل رسميًا مرحلة الإنتاج الكامل، مؤكدًا أن الرقائق الجديدة قادرة على تقديم أداء أعلى بنحو خمسة أضعاف مقارنة بالجيل السابق في تشغيل تطبيقات الذكاء الاصطناعي، خاصة روبوتات الدردشة والأنظمة التوليدية.

وجاء الإعلان خلال الكلمة الرئيسية لهوانغ في معرض الإلكترونيات الاستهلاكية CES 2026 بمدينة لاس فيغاس، حيث كشف عن تفاصيل تقنية جديدة في وقت تواجه فيه إنفيديا منافسة متصاعدة من شركات كبرى تطور رقائق ذكاء اصطناعي خاصة بها.

منصة “Vera Rubin” تقود الجيل الجديد من معالجات إنفيديا

وتعتمد الرقائق الجديدة على منصة Vera Rubin، وهي بنية متكاملة تضم ست رقائق مختلفة من تصميم إنفيديا، ومن المقرر طرح المنصة في الأسواق لاحقًا هذا العام، مع خوادم رئيسية تحتوي على 72 وحدة معالجة رسومية و36 معالجًا مركزيًا من الجيل الجديد.

وأوضح هوانغ أن هذه الخوادم يمكن ربطها ضمن وحدات ضخمة أو ما يُعرف بـ“Pods”، تضم أكثر من 1000 شريحة Rubin، ما يسمح بتحسين كفاءة توليد “الرموز” (Tokens) — وهي العنصر الأساسي في نماذج الذكاء الاصطناعي — بما يصل إلى 10 أضعاف.

أداء أعلى ببيانات ملكية وتقنيات جديدة

وأشار الرئيس التنفيذي لإنفيديا إلى أن القفزة الكبيرة في الأداء تحققت بفضل اعتماد الشركة على نوع خاص من البيانات المملوكة، تسعى إلى تعميم استخدامه داخل الصناعة مستقبلًا.

وقال هوانغ إن الشركة تمكنت من تحقيق هذه الطفرة في الأداء رغم أن عدد الترانزستورات في الرقائق الجديدة زاد بمقدار 1.6 مرة فقط مقارنة بالجيل السابق، وهو ما يعكس تحسنًا كبيرًا في كفاءة التصميم.

ورغم استمرار هيمنة إنفيديا على سوق تدريب نماذج الذكاء الاصطناعي، فإن المنافسة أصبحت أكثر شراسة في مجال تشغيل هذه النماذج وتقديمها لملايين المستخدمين حول العالم.

وتواجه الشركة ضغوطًا من منافسين تقليديين مثل AMD، إلى جانب عملاء كبار مثل غوغل التي تطور رقائقها الخاصة لتقليل الاعتماد على إنفيديا.

“Context Memory Storage” لتعزيز سرعة روبوتات الدردشة

وفي إطار تحسين أداء تطبيقات الذكاء الاصطناعي التفاعلية، أعلنت إنفيديا عن تقنية تخزين جديدة تحمل اسم Context Memory Storage، وتهدف إلى مساعدة روبوتات الدردشة على تقديم ردود أسرع وأكثر دقة عند التعامل مع أسئلة طويلة ومحادثات معقدة.

كما كشفت الشركة عن جيل جديد من محولات الشبكات يعتمد على تقنية الربط البصري المدمج (Co-Packaged Optics)، وهي تقنية أساسية لربط آلاف الخوادم داخل أنظمة الذكاء الاصطناعي الضخمة، في منافسة مباشرة مع حلول تقدمها شركات مثل برودكوم وسيسكو.

وأكدت إنفيديا أن شركة CoreWeave ستكون من أوائل العملاء الذين سيعتمدون أنظمة Vera Rubin، مع توقع انضمام شركات كبرى مثل مايكروسوفت، وأمازون، وأوراكل، وغوغل.

برمجيات جديدة للسيارات ذاتية القيادة بنهج مفتوح المصدر

وسلط هوانغ الضوء على برمجيات جديدة مخصصة لدعم القيادة الذاتية، من بينها برنامج Alpamayo، الذي يساعد السيارات على اتخاذ قرارات القيادة مع توثيق مسار القرار لتحليل الأداء لاحقًا.

وأكد أن إنفيديا ستوفر البرنامج والبيانات المستخدمة في تدريبه بشكل مفتوح المصدر، بهدف تعزيز الشفافية وبناء الثقة لدى شركات صناعة السيارات.

الصين ورقائق H200.. طلب قوي وانتظار للتراخيص

وفيما يتعلق بالسوق الصينية، أوضح هوانغ أن الطلب لا يزال قويًا على رقائق H200، وهي من الجيل السابق لرقائق “Blackwell”، والتي سمح بتصديرها إلى الصين.

من جهتها، أكدت المديرة المالية لإنفيديا، كوليت كريس، أن الشركة تقدمت بطلبات رسمية للحصول على تراخيص التصدير، ولا تزال بانتظار موافقات من الولايات المتحدة ودول أخرى قبل بدء الشحن.

القيادي الآن على واتس آب! تابعونا لكل أخبار الأعمال والرياضة