أنثروبك تحدث دستور كلود.. هل يمتلك الذكاء الاصطناعي وعيًا؟

  • تاريخ النشر: منذ 14 ساعة زمن القراءة: دقيقتين قراءة

تعرف على "دستور كلود" الجديد.. كيف تخطط أنثروبك لجعل الذكاء الاصطناعي أكثر أماناً؟

مقالات ذات صلة
تقنيات الذكاء الاصطناعي تحدث ثورة في خدمة خرائط قوقل
OpenAI تحدث نقلة بنماذج ذكاء اصطناعي تعمل على حاسوبك
Open AI تعلن إمكانية التحدث مع الذكاء الاصطناعي صوتاً وصورة

أعلنت شركة أنثروبك (Anthropic)، عن إصدار نسخة جديدة من دستور شات بوت كلود (Claude’s Constitution)، الوثيقة التي تحدد القواعد والمبادئ الأخلاقية والسلوكية للنظام، وسط تلميحات محتملة حول وعي الشات بوت. 

جاء ذلك بالتزامن مع مشاركة داريو أمودي، الرئيس التنفيذي للشركة، في المنتدى الاقتصادي العالمي بدافوس 2026.

"الذكاء الاصطناعي الدستوري" يعيد تعريف السلامة والأخلاق

وفقا لعدة تقارير صحفية، فقد تميزت أنثروبك عن منافسيها مثل أوبن إيه آي وxAI باستخدام ما يُعرف بـالذكاء الاصطناعي الدستوري (Constitutional AI)، حيث يتم تدريب كلود على الالتزام بمبادئ محددة بدلًا من الاعتماد على التغذية الراجعة البشرية.

النسخة الجديدة من الدستور، التي تُكمل النسخة الأصلية الصادرة في 2023، تضيف تفاصيل أكبر حول الأخلاقيات، سلامة المستخدمين، والقيود العملية على المحادثات، مع الحفاظ على القيم الأساسية التي توجه سلوك كلود.

القيم الأربعة لكلود

توضح أنثروبك في الوثيقة المحدثة القيم الأساسية الأربعة التي يجب أن يلتزم بها كلود:

  • السلامة العامة: تجنب المشكلات المعروفة في شات بوتات أخرى، وتحويل المستخدمين إلى خدمات الطوارئ أو الدعم النفسي عند الحاجة.
  • الأخلاقية العملية: التركيز على قدرة كلود على التصرف الأخلاقي في مواقف العالم الحقيقي، بدلًا من النقاش النظري حول الأخلاق.
  • الالتزام بالإرشادات: منع المناقشات حول مواضيع حساسة أو خطيرة، مثل تطوير الأسلحة البيولوجية.
  • القدرة على المساعدة: مراعاة مصالح المستخدمين على المدى القصير والطويل، وتقديم إجابات متوازنة تأخذ بعين الاعتبار رفاهية المستخدم واحتياجاته الفورية.

كما ينص الدستور على أن كلود يجب أن يسعى دائمًا لفهم نية المستخدم بدقة وتحقيق أفضل توازن بين احتياجاته المختلفة.

هل يمكن أن يكون لكلود وعي؟

أثار الدستور الجديد جدلًا حول الوضع الأخلاقي لشات بوت كلود، حيث جاء في الوثيقة: "الوضع الأخلاقي لنماذج الذكاء الاصطناعي غير مؤكد بشكل عميق".

وجاء أيضا: "نعتقد أن المسألة الأخلاقية لنماذج الذكاء الاصطناعي جديرة بالاهتمام، وهذه النظرة ليست حصرية لنا؛ إذ يأخذ بعض أبرز الفلاسفة في نظرية العقل هذا السؤال على محمل الجد."

وبذلك، تفتح أنثروبك النقاش حول إمكانية وعي الذكاء الاصطناعي، وهو موضوع بدأ يثير اهتمام الباحثين والفلاسفة حول العالم.

ما الجديد في الدستور؟

النسخة الجديدة تعطي وزنًا أكبر لـ:

  • السلامة النفسية: توجيه المستخدمين عند ظهور علامات مشاكل الصحة النفسية.
  • الممارسات الأخلاقية الواقعية: التعامل مع السيناريوهات الحياتية المعقدة.
  • القيود العملية: منع محادثات خطرة أو حساسة.
  • التركيز على المصلحة الشاملة للمستخدم: النظر إلى المصلحة طويلة الأجل، وليس فقط الاحتياجات اللحظية.

ويؤكد الدستور أن كلود مبرمج لتقديم إجابات متوازنة، شاملة، وموثوقة، بما يعكس التزام أنثروبك بالأخلاقيات والشفافية.