ماسك يروج لقدرات "Grok 4.20" في تحليل صور الأشعة وفحوصات الدم
إيلون ماسك يثير الجدل بدعوة لتجربة Grok في التحليلات الطبية مدعومة بالذكاء الاصطناعي
عاد الملياردير الأمريكي إيلون ماسك إلى إثارة الجدل مجددًا بعد دعوته المستخدمين إلى تجربة روبوت الدردشة القائم على الذكاء الاصطناعي «Grok» للحصول على تحليل للفحوصات الطبية أو ما وصفه بـ«رأي طبي ثانٍ»، وهو ما فتح باب النقاش بين المختصين بشأن حدود استخدام الذكاء الاصطناعي في المجال الصحي.
دعوة جديدة لاستخدام الذكاء الاصطناعي في الفحوصات الصحية
في منشور عبر منصة «X»، أعاد ماسك مشاركة محتوى يشيد بقدرات الإصدار Grok 4.20، والذي قيل إنه قادر على تحليل نتائج تحاليل الدم والصور الطبية بسرعة كبيرة.
وأشار المنشور إلى إمكانية رفع التقارير الطبية أو صور الأشعة، مثل الرنين المغناطيسي، للحصول على تقييم تفصيلي خلال وقت قصير.
وأكد ماسك في تعليقه أن المستخدمين يمكنهم ببساطة تصوير بياناتهم الطبية أو تحميلها مباشرة للحصول على تحليل إضافي، وهو ما جذب ملايين المشاهدات خلال وقت قياسي، ما يعكس الاهتمام المتزايد باستخدام أدوات الذكاء الاصطناعي في الرعاية الصحية.
مساعٍ مستمرة لتحويل Grok إلى أداة مساعدة طبية
هذه ليست المرة الأولى التي يطرح فيها ماسك فكرة استخدام Grok في التشخيص أو التحليل الطبي.
ففي عام 2024، دعا المستخدمين إلى مشاركة صور الأشعة السينية وفحوصات PET والرنين المغناطيسي، معتبرًا أن النظام أصبح يتمتع بدرجة عالية من الدقة.
كما أعاد مستخدمون تداول مقطع فيديو حديث نسبيًا صرح فيه ماسك بأنه شاهد حالات قدم فيها الذكاء الاصطناعي تحليلات تفوقت على تقييمات طبية تقليدية، ما زاد من الجدل حول دور التقنية في دعم القرارات الصحية.
وفي دراسة علمية نُشرت عام 2025، تمت مقارنة أداء عدة نماذج ذكاء اصطناعي في تحليل عشرات الآلاف من صور الدماغ بالرنين المغناطيسي.
وأظهرت النتائج أداءً قويًا لـGrok في اكتشاف بعض الحالات المرضية، إلا أن الباحثين شددوا على أن هذه الأنظمة لا تزال تواجه قيودًا تقنية وتتطلب إشرافًا بشريًا متخصصًا.
تحذيرات طبية بشأن الخصوصية ودقة التشخيص
في المقابل، عبّر خبراء في الطب وأخلاقيات التكنولوجيا عن مخاوفهم من مشاركة المستخدمين لبياناتهم الصحية مع منصات الذكاء الاصطناعي.
وأكد مختصون أن المعلومات الطبية تُعد من أكثر أنواع البيانات حساسية، وقد لا يكون المستخدمون على دراية كاملة بكيفية تخزينها أو استخدامها لاحقًا.
كما حذر أكاديميون في أخلاقيات الطب من الاعتماد على التحليلات الآلية دون الرجوع إلى الأطباء، مشيرين إلى أن استخدام هذه الأدوات يجب أن يتم بحذر شديد.
وتحدث أطباء جربوا النظام سابقًا عن أخطاء ملحوظة في بعض الحالات، من بينها عدم اكتشاف أمراض معينة أو تفسير صور أشعة بشكل غير دقيق، وهو ما يبرز المخاطر المحتملة عند الاعتماد على الذكاء الاصطناعي وحده في التشخيص.
يتزامن الجدل مع تصاعد التدقيق التنظيمي حول Grok، حيث أعلنت هيئة حماية البيانات في أيرلندا فتح تحقيق يتعلق باستخدام الأداة في إنشاء صور دون موافقة أصحابها، مع مراجعة مدى التزام المنصة بقواعد حماية البيانات الأوروبية.
وكانت جهات تنظيمية أوروبية قد فرضت سابقًا قيودًا على استخدام بيانات المستخدمين في تدريب النظام، في خطوة تعكس تزايد القلق العالمي بشأن الخصوصية الرقمية وتوسع تقنيات الذكاء الاصطناعي.
ورغم التحذيرات، يواصل استخدام أدوات الذكاء الاصطناعي في المجال الطبي جذب اهتمام واسع، خاصة مع قدرتها على تحليل كميات ضخمة من البيانات بسرعة.
ومع ذلك، يؤكد خبراء أن هذه التقنيات ينبغي أن تُستخدم كوسيلة دعم للأطباء، لا كبديل عن التشخيص الطبي المتخصص.