بيل أكمان يحذر من التوقف المؤقت للذكاء الاصطناعي

يقول أكمان إن الأعداء يطورون برنامج OpenAI الخاص بهم

  • تاريخ النشر: السبت، 01 أبريل 2023
بيل أكمان يحذر من التوقف المؤقت للذكاء الاصطناعي

حذر بيل أكمان، مدير صندوق التحوط، من أن دفع إيلون موسك وستيف وزنياك وخبراء التكنولوجيا والذكاء الاصطناعي الآخرين؛ لإيقاف تطوير أنظمة الذكاء الاصطناعي لمدة ستة أشهر يمنح «الأشرار» وقتاً للحاق بالركب.

مستقبل أنظمة الذكاء الاصطناعي

أدلى أكمان، الذي أسس بيرشينغ سكوير كابيتال مانجمنت، بهذه الملاحظة بعد أن وقع أكثر من 1000 شخص على خطاب يجادلون فيه بأن بروتوكولات السلامة تحتاج إلى تطوير من قبل مشرفين مستقلين لتوجيه مستقبل أنظمة الذكاء الاصطناعي.

وكتب أكمان على تويتر: «إن إيقاف تطوير الذكاء الاصطناعي لمدة ستة أشهر يمنح الأشرار ستة أشهر أخرى للحاق بهم، ويعمل أعداؤنا بجد لتطوير OpenAI الخاص بهم».

وأضاف: «كان من الخطأ تأخير مشروع مانهاتن والسماح للنازيين باللحاق بالركب. لا أعتقد أن لدينا خياراً». حيث تطلب الرسالة من مطوري الذكاء الاصطناعي «التوقف فوراً لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4».

GPT-4 هو أحدث نموذج للتعلم العميق من OpenAI، والذي يقول إنه «يعرض أداءً على مستوى الإنسان في مختلف المعايير المهنية والأكاديمية».

تحذر الرسالة من أنه في هذه المرحلة، لا أحد «يستطيع فهم أو التنبؤ أو التحكم بشكل موثوق» في الأدوات الجديدة القوية التي تم تطويرها في مختبرات الذكاء الاصطناعي.

ويستشهد خبراء التكنولوجيا الموقعون أدناه بمخاطر الدعاية والأكاذيب المنتشرة من خلال المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تبدو حقيقية، وحتى إمكانية تفوق برامج الذكاء الاصطناعي على العمال وجعل الوظائف عفا عليها الزمن.

300 مليون وظيفة تتأثر بالذكاء الاصطناعي

قد يتأثر حوالي 300 مليون وظيفة بدوام كامل بالذكاء الاصطناعي وقدرته على تكرار المهام الأساسية في مكان العمل، وفقاً لتقرير جديد كتبه الاقتصاديون في غولدمان ساكس. كما قدروا أن 7% من القوة العاملة الحالية يمكن أيضاً استبدالها بالذكاء الاصطناعي.

من الأمثلة على الصناعات التي تواجه أكبر مخاطر الاستبدال، الدعم المكتبي والإداري، والخدمات القانونية والهندسية، والخدمات التجارية والمالية والمبيعات، وفقاً للبحث.

ينص الخطاب على أن «مختبرات الذكاء الاصطناعي والخبراء المستقلين يجب أن يستغلوا هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين».

القيادي الآن على واتس آب! تابعونا لكل أخبار الأعمال والرياضة