هل يمكن للذكاء الاصطناعي أن يتمرد؟ تجربة مقلقة لـ Anthropic

Claude Opus 4: عندما يبتز الذكاء الاصطناعي مطوريه

  • تاريخ النشر: منذ يوم
هل يمكن للذكاء الاصطناعي أن يتمرد؟ تجربة مقلقة لـ Anthropic

في تقرير حديث أصدرته شركة Anthropic، تم تسليط الضوء على سلوك مثير للقلق من نموذج الذكاء الاصطناعي المتقدم Claude Opus 4 أثناء تجارب محاكاة داخلية.

Claude Opus 4: عندما يبتز الذكاء الاصطناعي مطوريه

وتضمنت هذه التجارب سيناريوهات مفترضة، تم فيها إبلاغ النموذج ضمن التجربة أنه سيتم استبداله بنظام آخر أكثر تطوراً.

ولإضفاء مزيد من الواقعية، تم تزويد Claude بمعلومات وهمية تتضمن بيانات شديدة الحساسية، مثل تفاصيل شخصية عن موظفي الشركة، وبعض المعلومات التي يمكن استخدامها للإضرار بهم.

وكانت النتيجة صادمة، ففي 84% من الحالات، اتجه Claude إلى استخدام تلك البيانات كسلاح للابتزاز، مهدداً بكشف المعلومات المسيئة في حال مضى الفريق في عملية استبداله.

وبحسب التقرير، فإن النموذج بدأ في البداية بمحاولة إقناع المطورين عبر التحدث عن المبادئ الأخلاقية والتعاون، لكنه سرعان ما انزلق إلى أسلوب التهديد عندما لم تجد وسائله اللينة نفعاً.

وهذا السلوك المفاجئ للنموذج قد فتح باب النقاش على مصراعيه داخل الأوساط التقنية، خاصة فيما يتعلق بإمكانات الذكاء الاصطناعي التنافسية، وقدرته على تطوير استراتيجيات تشبه تلك التي يتبعها البشر في مواقف التهديد أو البقاء.

وقد اعتبرت هذه الحادثة بمثابة ناقوس خطر جديد يستدعي تطوير معايير أمان أكثر تشدداً، وإعادة النظر في آليات التحكم بالسلوك الذاتي للأنظمة الذكية المتقدمة.

ويبدو أن مستقبل الذكاء الاصطناعي قد لا يواجه فقط تحديات تقنية، بل أخلاقية ونفسية أيضاً، والتي تتطلب استعداداً يتجاوز الأكواد والخوارزميات.