قوقل ترفض إصلاح ثغرة جيميني الخطيرة رغم تحذيرات الخبراء

  • تاريخ النشر: منذ 23 ساعة زمن القراءة: دقيقتين قراءة | آخر تحديث: منذ ساعة

هل تصبح أدوات الذكاء الاصطناعي بوابة جديدة لتسريب البيانات؟

أثارت شركة قوقل الأمريكية جدلاً واسعاً مؤخراً، بعد إعلانها رسمياً أنها لن تصدر تحديثاً أمنياً لمعالجة ثغرة خطيرة اكتشفت في نظام الذكاء الاصطناعي الخاص بها جيميني، على الرغم من التحذيرات المتزايدة من خبراء الأمن السيبراني بشأن إمكانية استغلالها لسرقة معلومات حساسة من المستخدمين.

هل تصبح أدوات الذكاء الاصطناعي بوابة جديدة لتسريب البيانات؟

وبحسب ما ذكرته تقارير تقنية، فقد اكتشاف باحث أمني ثغرة تعرف باسم تهريب ASCII، التي تعرض أنظمة ذكاء اصطناعي شهيرة للخطر، من بينها جيميني وديب سيك وغروك، بينما تمكنت أنظمة أخرى، مثل كلود وشات جي بي تي وكوبايلوت، من التصدي لها بكفاءة.

وتعتمد هذه التقنية على إخفاء أوامر ضارة داخل نصوص تبدو عادية، بحيث لا يلاحظها المستخدم، لكنها تقرأ وتنفذ من قبل أدوات الذكاء الاصطناعي.

وأوضحت التقارير أنه على سبيل المثال، يمكن لمهاجم إرسال بريد إلكتروني يحتوي على أمر سري بخط صغير أو بتشفير خاص، وعندما يطلب المستخدم من جيميني تلخيص الرسالة، يقوم النظام دون قصد بتنفيذ الأمر الخفي، مثل استخراج بيانات من البريد، أو إرسال ملفات حساسة لطرف خارجي.

وتتضاعف خطورة الثغرة مع دمج جيميني في حزمة Google Workspace، حيث يمنح ذلك النظام إمكانية الوصول إلى مستندات ومعلومات حساسة في بيئات العمل، مما يزيد احتمالية تسريب البيانات المؤسسية أو الشخصية.

ولفتت التقارير إلى أنه رغم ذلك، فقد رفضت قوقل تصنيف هذه المشكلة كثغرة أمنية، معتبرة أنها شكل من أشكال الهندسة الاجتماعية، أي أن المسؤولية تقع على المستخدم في توخي الحذر عند التعامل مع المحتوى المشبوه.

وهذا الموقف قد أثار انتقادات واسعة، حيث يرى خبراء الأمن السيبراني أن تجاهل الثغرة يترك الباب مفتوحاً أمام موجة جديدة من الهجمات الرقمية التي تستغل أدوات الذكاء الاصطناعي ذاتها كسلاح ضد المستخدمين.

ونوهت التقارير إلى أنه مع اتساع الاعتماد على تقنيات الذكاء الاصطناعي في الأعمال اليومية، يطرح هذا الخلاف سؤالاً جوهرياً حول مسؤولية الشركات الكبرى في حماية المستخدمين من المخاطر التقنية الكامنة في أنظمتها، وهل يمكن الوثوق في أنظمة تتعامل مع بياناتنا الحساسة دون ضمانات أمنية واضحة.