الذكاء الاصطناعي AI بين الماضي والحاضر

  • تاريخ النشر: الأحد، 14 فبراير 2021
الذكاء الاصطناعي AI بين الماضي والحاضر
مقالات ذات صلة
كيفية رفع كفاءة الموظفين لزيادة الإنتاجية وتحقيق المزيد من الربح
كيف تحمي نفسك من الاحتيال الإلكتروني
في اليوم العالمي لسرطان الأطفال: نصائح مهمة لتحمي أطفالك من السرطان

يبدو العالم الذي نعيش فيه اليوم من نواحٍ عديدة مثل أرض العجائب المشابهة لتلك التي وصفها عالم الرياضيات البريطاني تشارلز لوتويدج دودجسون في رواياته الشهيرة.

فالتعرف على الصور ومكبرات الصوت الذكية والسيارات ذاتية القيادة كلها أصبحت ممكنة بسبب التقدم في الذكاء الاصطناعي (AI)، والذي يُعرَّف بأنه "قدرة النظام على تفسير البيانات الخارجية بشكل صحيح والتعلم من هذه البيانات واستخدام تلك المعارف"

وقد أُنشئ باعتباره تخصصًا أكاديميًا في الخمسينيات من القرن الماضي، وقد ظل الذكاء الاصطناعي مجالًا من الغموض العلمي النسبي والاهتمام العملي لأكثر من نصف قرن، واليوم وبسبب وجود البيانات الضخمة والتحسينات في قوة الحوسبة دخل الذكاء الصنعي بيئة الأعمال بل وحتى الحياة العامة.

يمكن تصنيف الذكاء الاصطناعي إلى ذكاء اصطناعي تحليلي أو ذكاء اصطناعي مستوحى من الإنسان أو ذكاء اصطناعي متوافق مع البشر اعتمادًا على أنواع الذكاء الذي يظهره (الذكاء المعرفي والعاطفي والاجتماعي) أو إلى الذكاء الاصطناعي الضيق أو الذكاء الاصطناعي العام أو الذكاء الفائق.

ومع ذلك تشترك هذه الأنواع في أنه عندما يصل الذكاء الاصطناعي إلى الاستخدام السائد فإنه لم يعد يعتبر في كثير من الأحيان ذكاءً، وتووصف هذه الظاهرة بتأثير الذكاء الاصطناعي والذي يحدث عندما يستبعد المتفرجون سلوك برنامج الذكاء الاصطناعي بالقول إنه ليس ذكاءً حقيقيًا. كما قال كاتب الخيال العلمي البريطاني آرثر كلارك ذات مرة "أي تكنولوجيا متقدمة بما فيه الكفاية لا يمكن تمييزها عن السحر، لكن عندما يفهم المرء التكنولوجيا يختفي السحر".

وفي فترات منتظمة منذ الخمسينيات من القرن الماضي توقع الخبراء أن الأمر سيستغرق بضع سنوات فقط حتى نصل إلى الذكاء الاصطناعي العام – ويقصد بالذكاء الصنعي العام الأنظمة التي تُظهر سلوكًا لا يمكن تمييزه عن البشر في جميع الجوانب ولديها ذكاء معرفي وعاطفي واجتماعي – لكن إن الوقت فقط هو من سيحدد ما إذا كان هذا ممكنًا بالفعل.

ويمكن للمرء أن ينظر إلى الذكاء الاصطناعي من زاويتين - الطريق الذي تم قطعه بالفعل والطريق الذي لا يزال أمامنا - وفي هذه الافتتاحية نهدف إلى القيام بذلك بالضبط، حيث سنبدأ بالنظر في ماضي الذكاء الاصطناعي لنرى إلى أي مدى تطور ثم النظر في تطوره في الوقت الحاضر لفهم التحديات التي تواجهها الشركات اليوم، وأخيرًا النظر إلى المستقبل لمساعدة الجميع على الاستعداد للتحديات التي تنتظرنا.

ولادة الذكاء الصنعي

على الرغم من صعوبة تحديدها بدقة فمن المحتمل أن تعود جذور الذكاء الاصطناعي إلى الأربعينيات وتحديداً عام 1942 عندما نشر كاتب الخيال العلمي الأمريكي إسحاق أسيموف قصته القصيرة Runaround. حيث تدور حبكة Runaround عن قصة عن روبوت طوره المهندسان Gregory Powell وMike Donavan ووضعوا فيه القوانين الثلاثة للروبوتات

  • لا يؤذي الروبوت إنسانًا أو يسمح للإنسان القيام بأذية نفسه
  • يجب أن يلتزم الروبوت بالأوامر الصادرة عن البشر إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول
  • يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانونين الأول أو الثاني.

وقد ألهم عمل Asimov أجيالًا من العلماء في مجال الروبوتات والذكاء الاصطناعي وعلوم الكمبيوتر منهم العالم المعرفي الأمريكي مارفن مينسكي الذي شارك لاحقًا في تأسيس مختبر MIT AI.

وفي نفس الوقت تقريبًا ولكن على بعد أكثر من 3000 ميل عمل عالم الرياضيات الإنجليزي آلان تورينج على قضايا خيالية أقل بكثير وطور آلة لكسر الشفرة تسمى The Bombe للحكومة البريطانية بهدف فك شفرة Enigma التي يستخدمها الجيش الألماني في الحرب العالمية الثانية.

وتعتبر The Bombe التي كان حجمها حوالي 7 × 6 × 2 قدمًا وكان وزنها حوالي طن أول كمبيوتر كهروميكانيكي يعمل بشكل عام، والطريقة التي تمكنت بها The Bombe من كسر كود Enigma "وهي مهمة كانت مستحيلة في السابق حتى لأفضل علماء الرياضيات البشريين" جعلت تورينج يتساءل عن ذكاء مثل هذه الآلات. وفي عام 1950 نشر مقالته الأساسية "آلات الحوسبة والذكاء" حيث وصف كيفية إنشاء آلات ذكية وكيفية اختبار ذكائها. ولا يزال اختبار تورينج هذا يُعتبر اليوم معيارًا لتحديد ذكاء النظام الاصطناعي، فإذا كان الإنسان يتفاعل مع إنسان آخر وآلة وغير قادر على تمييز الآلة عن الإنسان فيُقال عندها إن الآلة ذكية.

بعد ذلك تم صياغة كلمة الذكاء الاصطناعي رسميًا بعد حوالي ست سنوات عندما استضاف مارفن مينسكي وجون مكارثي (عالم الكمبيوتر في ستانفورد) في عام 1956 مشروع دارتموث الصيفي لأبحاث الذكاء الاصطناعي (DSRPAI) الذي استمر ثمانية أسابيع تقريبًا في كلية دارتموث في نيو هامبشاير، وقد قامت هذه الورشة التي تمثل بداية ربيع الذكاء الاصطناعي والتي مولتها مؤسسة روكفلر بجمع أولئك الذين سيعتبرون فيما بعد الآباء المؤسسين للذكاء الاصطناعي. وكان من بين المشاركين عالم الكمبيوتر ناثانيال روتشستر الذي صمم لاحقًا IBM 701 - أول كمبيوتر علمي تجاري - وعالم الرياضيات كلود شانون الذي أسس نظرية المعلومات. حيث كان الهدف من DSRPAI هو جمع شمل الباحثين من مختلف المجالات من أجل إنشاء مجال بحث جديد يهدف إلى بناء آلات قادرة على محاكاة الذكاء البشري.

تأرجح دفة التطور

شهد مؤتمر دارتموث نجاحًا كبيرًا في مجال الذكاء الاصطناعي، وأحد الأمثلة المبكرة على ذلك هو برنامج الكمبيوتر الشهير ELIZA الذي تم إنشاؤه بين عامي 1964 و 1966 بواسطة جوزيف وايزنباوم في معهد ماساتشوستس للتكنولوجيا. حيث كانت ELIZA أداة معالجة للغة الطبيعية قادرة على محاكاة محادثة مع إنسان وأحد البرامج الأولى القادرة على محاولة اجتياز اختبار تورينج المذكور أعلاه. وهناك قصة نجاح أخرى في الأيام الأولى للذكاء الاصطناعي هي برنامج حل المشكلات العام General Problem Solver الذي طوره هربرت سيمون الحائز على جائزة نوبل، كما كان هناك العلماء في مؤسسة RAND كليف شو وألين نيويل الذين كانا قادرين على حل نوع معين من المشاكل البسيطة مثل أبراج هانوي.

وفي عام 1970 أجرى مارفن مينسكي مقابلة مع مجلة Life Magazine ذكر فيها أنه يمكن تطوير آلة تتمتع بذكاء عام للإنسان العادي في غضون ثلاث إلى ثماني سنوات.

ومع ذلك للأسف لم يكن هذا هو الحال، فبعد ثلاث سنوات فقط في عام 1973 بدأ الكونجرس الأمريكي ينتقد بشدة الإنفاق المرتفع على أبحاث الذكاء الاصطناعي. وفي نفس العام نشر عالم الرياضيات البريطاني جيمس لايتيل تقريرًا بتكليف من مجلس أبحاث العلوم البريطاني تساءل فيه عن التوقعات المتفائلة التي قدمها باحثو الذكاء الاصطناعي، وصرح لايتيل أن الآلات لن تصل إلا إلى مستوى "الهواة المتمرسين" في ألعاب مثل الشطرنج وأن التفكير المنطقي سيكون دائمًا فوق قدراتهم. ورداً على ذلك أنهت الحكومة البريطانية دعمها لأبحاث الذكاء الاصطناعي في جميع الجامعات باستثناء ثلاث جامعات (إدنبرة وساسكس وإسيكس) وسرعان ما اتبعت الحكومة الأمريكية الحكومة البريطانية في خطاها.

لكن بعدها بقليل بدأت الحكومة اليابانية بدأت في تمويل أبحاث الذكاء الاصطناعي بشكل كبير في الثمانينيات والتي استجابت لها وكالة DARPA الأمريكية من خلال زيادة التمويل أيضًا، ولسوء الحظ لم يتم إحراز أي تقدم آخر في السنوات التالية.

الأنظمة الخبيرة

ثمرة الأبحاث التي اعتبرت فاشلة

أحد أسباب النقص الأولي في التقدم في مجال الذكاء الاصطناعي وحقيقة أن الواقع تراجع بشكل حاد مقارنة بالتوقعات يكمن في الطريقة المحددة التي حاولت بها الأنظمة المبكرة مثل ELIZA و General Problem Solver تمثيل الذكاء البشري.

"إذا رغبت بالتحدث إلى روبوت eliza يمكنك النقر هنا"

فعلى وجه التحديد كانت جميع الأنظمة السابقة تعتبر من نمط الأنظمة الخبيرة Expert Systems وهي أنظمة تعتبر أي مشكلة على أنها مجموعة من القواعد التي يمكن إضفاء الطابع الرتيب عليها وإعادة بنائها كسلسلة من العبارات الشرطية. لكن لنكن منصفين يمكن للأنظمة الخبيرة أن تعمل بشكل جيد في الميادين التي تصلح لإضفاء الطابع الرتيب، فعلى سبيل المثال إن برنامج لعب الشطرنج Deep Blue الخاص بشركة IBM والذي كان قادرًا في عام 1997 على التغلب على بطل العالم جاري كاسباروف – والذي أثبت أن الكلام الذي أدلى به جيمس لايتيل خاطئ كان من نمط الأنظمة الخبيرة، وورد أن ديب بلو كان قادرًا على معالجة 200 مليون حركة ممكنة في الثانية الواحدة وكان قادرًا على تحديد الخطوة التالية المثلى بالنظر إلى 20 حركة للأمام من خلال استخدام طريقة تسمى البحث الشجري Tree Search.

ومع ذلك فإن للأنظمة الخبيرة أداء ضعيف في المجالات التي لا تصلح لمثل هذا الشكل الرتيب. فعلى سبيل المثال لا يمكن تدريب النظام الخبير بسهولة على التعرف على الوجوه أو حتى التمييز بين صورة تظهر كعكًا وأخرى تظهر كلب شيواوا، وبالنسبة لمثل هذه المهام من الضروري أن يكون النظام قادرًا على تفسير البيانات الخارجية بشكل صحيح للتعلم منها ولاستخدامها لتحقيق أهداف ومهام محددة من خلال التكيف المرن.

ونظرًا لأن الأنظمة الخبيرة لا تمتلك هذه الخصائص فهي من الناحية الفنية لا تتحدث عن الذكاء الاصطناعي الحقيقي. وقد تمت مناقشة الأساليب الإحصائية لتحقيق الذكاء الاصطناعي الحقيقي في وقت مبكر من أربعينيات القرن الماضي عندما طور عالم النفس الكندي دونالد هب نظرية التعلم المعروفة باسم Hebbian Learning التي تكرر عملية الخلايا العصبية في الدماغ البشري وقد أدى ذلك إلى إنشاء بحث حول الشبكات العصبية الاصطناعية artificial neural networks، ومع ذلك فإن ركود هذا العمل جاء في عام 1969 عندما أظهر مارفن مينسكي وسيمور بابيرت أن أجهزة الكمبيوتر ليس لديها قوة معالجة كافية للتعامل مع العمل الذي تتطلبه مثل هذه الشبكات العصبية الاصطناعية.

لكن عادت الشبكات العصبية الاصطناعية إلى الظهور في شكل التعلم العميق عندما تمكن برنامج AlphaGo الذي طورته Google في عام 2015 من التغلب على بطل العالم في لعبة Go

لكن لماذا GO؟

إن هذه اللعبة أكثر تعقيدًا من الشطرنج بكثير، فعلى سبيل المثال عند الافتتاح هناك 20 حركة محتملة في الشطرنج ولكن 361 حركة في Go، وكان يعتقد منذ فترة طويلة أن أجهزة الكمبيوتر لن تكون قادرة على التغلب على البشر في هذه اللعبة. لكن حقق AlphaGo أدائه العالي باستخدام نوع معين من الشبكات العصبية الاصطناعية تسمى التعلم العميق Deep Learning، حيث تشكل الشبكات العصبية الاصطناعية والتعلم العميق اليوم أساسًا لمعظم التطبيقات التي نعرفها تحت عنوان AI. إنها أساس خوارزميات التعرف على الصور التي يستخدمها Facebook وخوارزميات التعرف على الكلام التي تغذي مكبرات الصوت الذكية والسيارات ذاتية القيادة، وأخيرًا جاء حصاد ثمار التطورات التي جرت في الأعوام الماضية وهي الفترة التي كان فيها سقوط الذكاء الاصطناعي.

الدور الذي سيلعبه الذكاء الاصطناعي

توضح المناقشة أعلاه أن الذكاء الاصطناعي سيصبح جزءًا من الحياة اليومية كما فعل الإنترنت أو وسائل التواصل الاجتماعي في الماضي، ومن خلال القيام بذلك لن يؤثر الذكاء الاصطناعي على حياتنا الشخصية فحسب بل سيغير أيضًا بشكل أساسي كيفية اتخاذ الشركات للقرارات والتفاعل مع أصحاب المصلحة الخارجيين (مثل الموظفين والعملاء).

والسؤال ليس ما إذا كان الذكاء الاصطناعي سيلعب دورًا في هذه العناصر أم لا؟ ولكن السؤال هو عن الدور الذي سيلعبه؟ والأهم من ذلك كيف يمكن أن تتعايش أنظمة الذكاء الاصطناعي والبشر (بسلام) جنبًا إلى جنب؟ وما هي القرارات التي يجب أن يتخذها الذكاء الاصطناعي بدلاً من البشر؟ وأي منها يتخذها البشر؟ وأي منها سيكون مشكلة يجب على جميع الشركات التعامل معها اليوم؟

المستقبل والحاجة إلى ضبط عجلة التطور

فيما يتعلق بالخوارزميات والمنظمات

حقيقة أن أنظمة الذكاء الاصطناعي ستصبح في المستقبل القريب جزءًا من حياتنا اليومية تثير التساؤل عما إذا كانت هناك حاجة للتنظيم، وإذا كان الأمر كذلك في أي شكل سيتم التنظيم؟

فعلى الرغم من أن الذكاء الاصطناعي في جوهره لا يملك هدف وهو بدون تحيز مما يعني أن الأنظمة القائمة على الذكاء الاصطناعي لا يمكن أن تكون متحيزة، ففي الواقع نظرًا لطبيعته فإن أي تحيز موجود في بيانات الإدخال المستخدمة لتدريب نظام الذكاء الاصطناعي يستمر وقد يتم تضخيمه.

فأظهرت الأبحاث على سبيل المثال أن المستشعرات المستخدمة في السيارات ذاتية القيادة أفضل في اكتشاف درجات لون البشرة الفاتحة من تلك الداكنة (بسبب نوع الصور المستخدمة لتدريب مثل هذه الخوارزميات) كما أن أنظمة دعم القرار التي يستخدمها المحكمون قد تكون متحيزة عنصريًا (لأنها تستند إلى تحليل الأحكام السابقة التي قام بها خبراء بشريون).

فبدلاً من محاولة تنظيم الذكاء الاصطناعي نفسه فإن أفضل طريقة لتجنب مثل هذه الأخطاء هي على الأرجح تطوير القيود المتعلقة بتدريب واختبار خوارزميات الذكاء، سيسمح هذا بالتنظيم المستقر حتى لو تطورت الجوانب التقنية لأنظمة الذكاء الاصطناعي بمرور الوقت.

كما يمكن مساءلة الشركات عن أخطاء خوارزمياتها أو حتى الحاجة إلى إثبات دليل أخلاقي لمهندسي الذكاء الاصطناعي، مثل ما يتم التعامل مع المحامين أو الأطباء.

ومع ذلك فإن ما لا يمكن أن تتجنبه هذه القواعد هو القرصنة المتعمدة لأنظمة الذكاء الاصطناعي أو الاستخدام غير المرغوب فيه لهذه الأنظمة للاستهداف الدقيق على أساس السمات الشخصية أو توليد أخبار مزيفة.

وما يجعل الأمور أكثر تعقيدًا هو أن التعلم العميق وهو أسلوب أساسي تستخدمه معظم أنظمة الذكاء الاصطناعي هو بطبيعته صندوق أسود، ففي حين أنه من السهل تقييم جودة المخرجات الناتجة عن هذه الأنظمة (على سبيل المثال الصور المصنفة بشكل صحيح) فإن العملية المستخدمة للقيام بذلك تظل غامضة إلى حد كبير لدى الكثير من الناس.

الشبكات العصبية الصنعية

فيما يتعلق بالتوظيف والبطالة

بنفس الطريقة التي قامت فيها الأتمتة في عمليات التصنيع إلى فقدان العديد من الوظائف، فإن الاستخدام المتزايد للذكاء الاصطناعي سيؤدي إلى تقليل الحاجة إلى الوظائف المهنية عالية الكفاءة.

إن أدوات التعرف على الصور تتفوق بالفعل على الأطباء في اكتشاف سرطان الجلد، وفي المجالات القانونية قللت تقنيات e-discovery من الحاجة إلى فرق كبيرة من المحامين والمساعدين القانونيين لفحص ملايين الوثائق، وليس من الواضح ما إذا كان سيتم بالضرورة إنشاء وظائف جديدة من أجل استيعاب هؤلاء الموظفين، فهذا مرتبط بكل من عدد الوظائف الجديدة المحتملة (التي قد تكون أقل بكثير من عدد الوظائف المفقودة) ومستوى المهارة المطلوب.

ومن المثير للاهتمام أنه بإمكاننا استخدام الخيال العلمي للتنبؤ بما سيجري في المستقبل بوجود الذكاء الاصطناعي (تذكر قصة Runaround القصيرة التي كتبها إسحاق أسيموف) أو لإلقاء نظرة على الكيفية التي يمكن أن يبدو عليها عالم به المزيد من البطالة.

تصف الرواية الخيالية Snow Crash التي نشرها الكاتب الأمريكي نيل ستيفنسون عالماً يقضي فيه الناس حياتهم المادية في وحدات تخزين محاطة بمعدات تقنية بينما تحدث حياتهم الفعلية في عالم ثلاثي الأبعاد يسمى Metaverse حيث يظهرون فيه بشكل ثلاثي الأبعاد.

وبقدر ما يبدو هذا السيناريو خياليًا فإن التطورات الحديثة في معالجة صور الواقع الافتراضي جنبًا إلى جنب مع النجاح السابق للعوالم الافتراضية (وحقيقة أن البطالة المرتفعة تؤدي إلى دخل أقل وانخفاض مستوى المعيشة) فإن هذا السيناريو محتمل جدًا.

قد يكون التنظيم وسيلة لتجنب مثل هذا التطورات، فعلى سبيل المثال قد يُطلب من الشركات إنفاق نسبة معينة من الأموال التي يتم توفيرها من خلال الأتمتة في تدريب الموظفين على وظائف جديدة لا يمكن تشغيلها آليًا، وقد تقرر الدول أيضًا الحد من استخدام الأتمتة، ففي فرنسا لا يمكن الوصول إلى أنظمة الخدمة الذاتية التي تستخدمها هيئات الإدارة العامة إلا خلال ساعات العمل العادية، أو قد تقيد الشركات عدد ساعات العمل في اليوم لتوزيع العمل المتبقي بشكل متساوٍ بين القوى العاملة. فكل هذا قد يكون سهل التنفيذ على الأقل في المدى القصير، أو يمكن تحقيق فكرة الدخل الأساسي العالمي الذي يُقترح عادة كحل في هذه الحالة.

فيما يتعلق بالديمقراطية والسلام

كل هذه الحاجة إلى التنظيم تؤدي بالضرورة إلى السؤال من يحرس الحراس أنفسهم؟ أو بالأحرى من هو المسؤول عن تطبيق هذه التنظيمات؟

يمكن استخدام الذكاء الاصطناعي ليس فقط من قبل الشركات أو الأفراد ولكن أيضًا من قبل الدول نفسها. حيث تعمل الصين حاليًا على نظام ائتمان اجتماعي يجمع بين المراقبة والبيانات الضخمة والذكاء الاصطناعي "للسماح للأشخاص الجديرين بالثقة بالتجول في كل مكان ضمن الصين بينما يجعل من الصعب على من فقدوا المصداقية محاولة صعود الحافلة حتى".

لكن وفي خطوة معاكسة قررت سان فرانسيسكو مؤخرًا حظر تقنية التعرف على الوجه، حيث يعمل الباحثون على حلول تعمل بمثابة عباءة إخفاء افتراضية وتجعل الأشخاص غير قابلين للاكتشاف بواسطة كاميرات المراقبة الآلية.

بينما تحاول الصين والولايات المتحدة إلى حد ما الحد من العوائق التي تحول دون استخدام الشركات للذكاء الاصطناعي واستكشافه فقد اتخذ الاتحاد الأوروبي الاتجاه المعاكس بإدخال قانون اللائحة العامة لحماية البيانات (GDPR) حيز التنفيذ والذي حد بشكل كبير من مصادر بيانات الذكاء الصنعي، والذي سيؤدي على الأرجح إلى حقيقة أن تطوير الذكاء الاصطناعي سيتباطأ في الاتحاد الأوروبي مقارنة بالمناطق الأخرى وهو ما يثير بدوره التساؤل حول كيفية تحقيق التوازن بين النمو الاقتصادي ومخاوف الخصوصية الشخصية، لكن وفي النهاية ستكون هناك حاجة إلى تنسيق دولي في خضام هذه التغيرات.

وعلى غرار ما تم القيام به فيما يتعلق بقضايا مثل غسيل الأموال أو تجارة الأسلحة إن طبيعة الذكاء الاصطناعي تجعل من غير المحتمل أن يكون الحل المحلي الذي يؤثر على بعض البلدان فقط دون البعض الآخر فعالاً على المدى الطويل.

كلمة أخيرة

لا أحد يعرف ما إذا كان الذكاء الاصطناعي سيسمح لنا بتعزيز ذكائنا كما يعتقد ريموند كورزويل من Google، أو ما إذا كان سيقودنا في النهاية إلى الحرب العالمية الثالثة وهو ما يعتقده إيلون ماسك. لكن ومع ذلك يتفق الجميع على أنه سيؤدي إلى تحديات أخلاقية وقانونية وفلسفية فريدة يجب معالجتها.

فعلى مدى عقود تعامل الأخلاقيون والمشرعون مع معضلة العربة وهي تجربة فكرية فيها عربة الترام تسير باتجاه خمسة أشخاص مقيّدين (أو عاجزين عن الحركة) مُمَدّدين على السكة، أنت تقف بالقرب من العَتَلَة التي تتحكم بمحولة السكة الحديدة، إذا سحبت العَتَلَة ستتابع العربة سيرها في المسار الثانوي الآخر وسيتمّ إنقاذ خمسة أشخاص على المسار الرئيسي. لكن يوجد شخص واحد مُمَدّد على المسار الثانوي. وأنت أمام خيارين

  1. الخيار الأول هو ألّا تفعل شيئًا وتسمح للعربة بقتل خمسة أشخاص على المسار الرئيسي.
  2. الخيار الثاني هو سحب العَتَلَة، وتحويل العربة إلى المسار الثانوي وسوف تقتل شخص واحد.

فأي خيار منها هو الأكثر أخلاقيّة؟

ففي عالم السيارات ذاتية القيادة ستصبح هذه المشكلات اختيارات فعلية وسيتعين على الآلات وبالتالي على المبرمجين البشريين القيام بها، وقد كانت الدعوات إلى التنظيم عديدة بما في ذلك من قبل الجهات الفاعلة الرئيسية مثل مارك زوكربيرج.

ولكن كيف يمكننا تنظيم تقنية تتطور باستمرار من تلقاء نفسها - وتلك التي يفهمها عدد قليل من الخبراء ناهيك عن السياسيين؟ وكيف لنا أن نتأقلم مع هذه التطورات الضخمة التي سيحدثها الذكاء الصنعي في حياتنا؟ وكيف سنتعامل مع المشاكل المترتبة عن تطوره؟

يمكن أن يكون أحد الحلول هو اتباع نهج قاضي المحكمة العليا الأمريكية بوتر ستيوارت الذي عرّف الفاحشة في عام 1964 بقوله "أعرف الفاحشة عندما أراها". مما يعيدنا إلى تأثير الذكاء الاصطناعي المذكور سابقًا والذي نميل الآن سريعًا إلى قبوله كالمعتاد والذي كان يُنظر إليه على أنه غير عادي. حيث يوجد اليوم المئات من التطبيقات المختلفة التي تسمح للمستخدم بلعب الشطرنج ضد هاتفه، بحيث أصبح لعب الشطرنج ضد آلة - والخسارة على نحو شبه مؤكد - شيئًا لا يستحق الذكر.