كيف تمنع استخدام محادثاتك في تدريب كلود؟
أنثروبيك تمنح مستخدمي كلود خيار الانسحاب من تدريب الذكاء الاصطناعي
في ظل الجدل المتزايد حول استخدام البيانات الشخصية في تدريب أنظمة الذكاء الاصطناعي، بدأت العديد من الشركات التقنية في منح المستخدمين الأفراد والمؤسسات، خيار التحكم في بياناتهم، بما في ذلك إمكانية رفض استخدامها لأغراض التدريب أو بيعها.
أنثروبيك تمنح مستخدمي كلود خيار الانسحاب من تدريب الذكاء الاصطناعي
ومن بين هذه الشركات، تبرز شركة أنثروبيك، المطورة لروبوت الدردشة كلود، التي أعلنت مؤخراً عن آلية واضحة تمكن المستخدمين من إلغاء الاشتراك، ومنع استخدام محادثاتهم في تدريب النظام.
شاهد أيضاً: مساعد طيار ذكي يعزز سلامة الطيران
وبحسب ما ذكرته تقارير تقنية، فإنه عند تسجيل حساب جديد في كلود، سيظهر خيار مبدئي بعنوان المساعدة في تحسين كلود، حيث يمكن للمستخدم تعطيله مباشرة لرفض مشاركة بياناته.
أما المستخدمون الحاليون، فقد منحتهم الشركة مهلة حتى 28 سبتمبر الجاري لإلغاء الاشتراك وفق تحديث سياسة الخصوصية، مع إمكانية تعطيل الخيار لاحقاً في أي وقت عبر إعدادات التطبيق.
ولتنفيذ ذلك، يمكن لمستخدمي تطبيق كلود على الهواتف الدخول إلى قائمة الإعدادات بالضغط على أيقونة الخطوط الثلاثة في أعلى الواجهة، ثم اختيار الإعدادات والخصوصية، وتعطيل خيار ساعد في تحسين كلود.
أما في نسخة الويب، فيمكن الوصول إلى الإعدادات من خلال النقر على أيقونة المستخدم أسفل يسار الشاشة، ثم اختيار الإعدادات، وبعدها الخصوصية، حيث يظهر الخيار نفسه لإيقاف المشاركة.
ونوهت التقارير إلى أنه حتى في حال الموافقة المبدئية على شروط الخدمة الجديدة، يستطيع المستخدم العودة وتعطيل الميزة لاحقاً باتباع الخطوات نفسها.
أما بالنسبة لأولئك الذين يقررون الاشتراك طوعاً، فقد أوضحت أنثروبيك أن بياناتهم الجديدة والمستقبلية فقط هي التي ستستخدم في تحسين قدرات الذكاء الاصطناعي، بينما تبقى المحادثات القديمة خارج نطاق التدريب.
كما أعلنت الشركة أنها ستحتفظ بالبيانات لمدة تصل إلى 5 سنوات، بهدف مراقبة الاستخدام، وكشف أي أنماط سلوك ضارة أو محاولات إساءة.
وأضافت التقارير أنه بهذه السياسة، تحاول أنثروبيك تحقيق توازن بين تطوير أنظمتها الذكية، وحماية خصوصية المستخدمين، في وقت تتزايد فيه المخاوف العالمية بشأن مصير البيانات الشخصية وكيفية استغلالها.