الصين تتحرك لضبط الذكاء الاصطناعي العاطفي بلوائح غير مسبوقة

  • تاريخ النشر: منذ يوم زمن القراءة: دقيقتين قراءة

من حماية المحتوى إلى حماية المشاعر: تشريعات صينية جديدة للذكاء الاصطناعي

في خطوة تنظيمية غير مسبوقة تعكس تصاعد القلق العالمي من التأثيرات النفسية للتقنيات الذكية، تتجه الصين إلى فرض حزمة من القيود الصارمة على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، خاصة تلك التي تحاكي السلوك البشري، وتتفاعل عاطفياً مع المستخدمين.

من حماية المحتوى إلى حماية المشاعر: تشريعات صينية جديدة للذكاء الاصطناعي

وبحسب ما ذكرته تقارير تقنية، فقد جاءت هذه التوجهات ضمن مسودة لوائح تنظيمية نشرتها إدارة الفضاء الإلكتروني الصينية، والتي تهدف بالأساس إلى الحد من الآثار العاطفية السلبية المحتملة لهذه التقنيات، خاصة في القضايا الحساسة، مثل الانتحار، وإيذاء النفس، والمقامرة.

وتركز المسودة على ما تصفه بخدمات الذكاء الاصطناعي التفاعلية الشبيهة بالبشر، وهي أنظمة متقدمة تحاكي الشخصية الإنسانية، وتتواصل مع المستخدمين عبر النصوص أو الصور أو الصوت أو الفيديو، بما يمنحها قدرة عالية على التأثير النفسي والعاطفي.

ومن المقرر فتح باب الملاحظات العامة حول هذه اللوائح حتى 25 يناير المقبل، في إشارة إلى رغبة السلطات في إشراك الأطراف المختلفة، وذلك قبل اعتمادها بصيغتها النهائية.

ويرى خبراء أن هذه الخطوة تمثل سابقة عالمية، حيث ستكون الصين أول دولة تسعى بشكل مباشر إلى تنظيم الذكاء الاصطناعي ذي الطابع الإنساني أو الأنثروبومورفي.

وأوضحوا أن هذه اللوائح تعكس تحولاً نوعياً، من التركيز على سلامة المحتوى إلى حماية سلامة المشاعر، في ظل الانتشار الواسع لتطبيقات الرفيق الرقمي والمشاهير الافتراضيين داخل السوق الصينية.

ولفتت التقارير إلى أن المسودة تنصح بوضوح على حظر أي محتوى قد يشجع على الانتحار أو إيذاء النفس، أو ينطوي على عنف لفظي أو تلاعب عاطفي يمكن أن يضر بالصحة النفسية للمستخدمين. وفي الحالات التي يظهر فيها المستخدم نية صريحة لإيذاء نفسه، تلزم القواعد شركات التقنية بالتدخل البشري الفوري، مع التواصل مباشرة مع ولي الأمر أو شخص يتم تحديده مسبقاً.

كما تحظر اللوائح على روبوتات الدردشة إنتاج محتوى مرتبط بالمقامرة أو المواد الإباحية أو العنف، مع فرض قيود مشددة على استخدام القصر لتقنيات الصحبة العاطفية القائمة على الذكاء الاصطناعي، بما يشمل: الحصول على موافقة أولياء الأمور وتحديد فترات زمنية للاستخدام.

كما تلزم المنصات كذلك بمحاولة التحقق من أعمار المستخدمين، حتى في حال عدم الإفصاح عنها، وتطبيق إعدادات حماية خاصة بالقصر عند وجود شك، مع توفير آلية للاعتراض.

ونوهت التقارير إلى أن الإجراءات تشمل أيضاً إلزام الشركات بتنبيه المستخدمين بعد مرور ساعتين من التفاعل المتواصل مع أنظمة الذكاء الاصطناعي، إضافة إلى إخضاع الروبوتات واسعة الانتشار لتقييمات أمنية إلزامية، خاصة تلك التي يتجاوز عدد مستخدميها مليون مسجل أو 100 ألف مستخدم نشط شهرياً.

ورغم هذا التشدد، فقد شجعت الوثيقة على توظيف الذكاء الاصطناعي الشبيه بالبشر في مجالات إيجابية، مثل نشر الثقافة العامة ودعم ورعاية كبار السن، في محاولة لتحقيق توازن بين الابتكار والحماية المجتمعية.