لهذا الغرض.. آبل تفحص الصور المخزنة في أجهزتها

  • تاريخ النشر: الأربعاء، 11 أغسطس 2021
لهذا الغرض.. آبل تفحص الصور المخزنة في أجهزتها
مقالات ذات صلة
آبل تعلن عن موعد إطلاق أحدث أجهزتها من الآيباد
آبل تدعم أجهزتها بخدمة Beats لبث الموسيقى
موقع آبل الإلكتروني يكشف معلومات عن أحدث أجهزتها بالخطأ ثم يحذف الصور

تُخطط شركة آبل لمسح الصور المخزنة ضمن أجهزة آيفون وآيكلاود بحثاً عن صور إساءة معاملة الأطفال، فستطرح الشركة في وقت لاحق من هذا العام، تقنية ستسمح لها باكتشاف حوادث الاعتداء الجنسي على الأطفال المعروفة والإبلاغ عنها لتطبيق القانون بطريقة تقول إنها ستحافظ على خصوصية المستخدم.

تقول آبل أن الكشف عن حوادث الاعتداء الجنسي على الأطفال هي واحدة من العديد من الميزات الجديدة التي تهدف إلى حماية أفضل للأطفال الذين يستخدمون خدماتها من وقوع أذى عليهم من خلال الإنترنت، بما في ذلك المرشحات لحظر الصور الجنسية الصريحة التي يُحتمل إرسالها واستلامها من خلال حساب للطفل.

تقنية NeuralHash

تُضيف آبل أن التقنية الجديدة NeuralHash تعمل على جهاز المستخدم، ويمكنها تحديد ما إذا كان المستخدم قد قام بتحميل صور معروفة لإساءة معاملة الأطفال إلى iCloud دون فك تشفير الصور حتى يتم استيفاء الحد الأدنى وتسلسل عمليات التحقق للتحقق من المحتوى .

سينطلق NeuralHash في iOS 15 و macOS Monterey ، المقرر إصداره خلال الشهر أو الشهرين المقبلين، ويعمل عن طريق تحويل الصور الموجودة على الهواتف الذكية مثلiPhone أو Mac للمستخدم إلى سلسلة فريدة من الأحرف والأرقام، تُعرف باسم التجزئة.

قبل تحميل الصورة على iCloud Photos ، تتم مطابقة هذه التجزئات على الجهاز بقاعدة بيانات مُكونة من 200000 صورة من التجزئات المعروفة لصور إساءة معاملة الأطفال، والتي تقدمها منظمات حماية الطفل مثل المركز الوطني للأطفال المفقودين والمستغلين وغيرها.

يستخدم NeuralHash تقنية تشفير تسمى تقاطع المجموعة الخاصة لاكتشاف تطابق تجزئة دون الكشف عن ماهية الصورة أو تنبيه المستخدم.

يتم تحميل النتائج على Apple ولكن لا يمكن قراءتها بمفردها. تستخدم Apple مبدأ تشفير آخر يسمى مشاركة العتبة السرية التي تسمح لها فقط بفك تشفير المحتويات إذا تجاوز المستخدم حداً من صور إساءة معاملة الأطفال المعروفة في صور iCloud الخاصة به. فيتم منح كل صورة يتم تحميلها عبر آيكلاود في الولايات المتحدة قسيمة أمان توضح ما إذا كانت مشبوهة أم لا.

وبمجرد وضع علامة على عدد معين من الصور على أنها مشبوهة، تعمل آبل على تمكين فك تشفير جميع الصور المشبوهة. وإذا كانت تبدو غير قانونية، فإنه يتم نقلها إلى السلطات المختصة، ففي هذه المرحلة، يمكن لشركة Apple فك تشفير الصور المطابقة، والتحقق يدوياً من المحتويات، وتعطيل حساب المستخدم، والإبلاغ عن الصور إلى الجهات المُحتصة لتطبيق القانون.

تقول Apple إن هذه العملية أكثر مراعاة للخصوصية من فحص الملفات في السحابة لأن NeuralHash يبحث فقط عن صور إساءة معاملة الأطفال المعروفة وليست الجديدة.

الحماية الموسعة للأطفال

يقول موقع آبل: "هدفنا في Apple هو ابتكار تقنية تمكّن الأشخاص وتثري حياتهم، مع مساعدتهم على البقاء في أمان. نريد المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم، والحدّ من انتشار حوادث الاعتداء الجنسي على الأطفال ".

لتحقيق هذه الأهداف تُقدّم Apple ميزات جديدة لسلامة الأطفال في ثلاثة مجالات، تم تطويرها بالتعاون مع خبراء سلامة الأطفال، وهي:

  • أولاً، ستمكّن أدوات الاتصال الجديدة الآباء من لعب دور أكثر استنارة في مساعدة أطفالهم على التنقل عبر الإنترنت. سيستخدم تطبيق الرسائل التعلم الآلي على الجهاز للتحذير من المحتوى الحساس، مع إبقاء الاتصالات الخاصة غير قابلة للقراءة.
  • ثانياً: سيستخدم iOS و iPadOS تطبيقات جديدة للتشفير للمساعدة في الحدّ من انتشار حوادث الاعتداء الجنسي على الأطفال عبر الإنترنت ، مع التصميم لخصوصية المستخدم. سيساعد اكتشاف هذه الحوادث  في توفير معلومات لمساعدة السلطات على فعل اللازم.
  • ثالثاً، توفر تحديثات Siri و Search للآباء والأطفال معلومات موسعة ومساعدة إذا واجهوا مواقف غير آمنة. سيتدخل Siri و Search أيضاً عندما يحاول المستخدمون البحث عن مواضيع متعلقة بحوادث الاعتداء الجنسي على الأطفال.