رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل

لماذا تعد تحديثات سلامة الأطفال من آبل مثيرة للجدل

آيفون
آيفون

في الأسبوع الماضي، قامت Apple بمعاينة عدد من التحديثات التي تهدف إلى تعزيز ميزات سلامة الأطفال على أجهزتها، من بينها: تقنية جديدة يمكنها مسح الصور على أجهزة المستخدمين للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM).

 

 

على الرغم من الإشادة بالتغيير على نطاق واسع من قبل بعض المشرعين والمدافعين عن سلامة الأطفال، إلا أنه أثار معارضة فورية من العديد من خبراء الأمن والخصوصية، الذين يقولون إن التحديث يرقى إلى تراجع شركة آبل عن التزامها بوضع خصوصية المستخدم فوق كل شيء آخر.

 

عارضت شركة Apple هذا التوصيف، قائلة إن نهجها يوازن بين الخصوصية والحاجة إلى بذل المزيد لحماية الأطفال من خلال منع بعض المحتوى البغيض من الانتشار على نطاق أوسع.

 

ماذا أعلنت شركة آبل؟


أعلنت شركة Apple عن ثلاثة تحديثات منفصلة، وكلها تندرج تحت مظلة "سلامة الأطفال"،  الميزة الأكثر أهمية - والتي حظيت بالجزء الأكبر من الاهتمام - هي الميزة التي ستقوم بمسح صور iCloud بحثًا عن CSAM المعروفة، تقارن الميزة، المدمجة في صور iCloud، صور المستخدم بقاعدة بيانات للمواد المحددة مسبقًا، إذا تم الكشف عن عدد معين من هذه الصور، فسيؤدي ذلك إلى بدء عملية المراجعة، إذا تم التحقق من الصور من قبل المراجعين البشريين، فستعلق Apple حساب iCloud هذا وتبلغ عنه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

 

قامت Apple أيضًا بمعاينة ميزات "أمان الاتصال" الجديدة لتطبيق الرسائل، يمكّن هذا التحديث تطبيق الرسائل من اكتشاف الوقت الذي يرسل فيه الأطفال صورًا جنسية صريحة أو يتلقونها، والأهم من ذلك، أن هذه الميزة متاحة فقط للأطفال الذين يشكلون جزءًا من حساب العائلة، والأمر متروك للوالدين للاشتراك.

 

سترسل ميزة رسائل آبل الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة. 


إذا اختار الوالدان الاشتراك في الميزة، فسيتم تنبيههما إذا شاهد طفل أقل من 13 عامًا إحدى هذه الصور، بالنسبة للأطفال الذين تزيد أعمارهم عن 13 عامًا، سيعرض تطبيق الرسائل تحذيرًا عند تلقي صورة فاضحة، ولكنه لن ينبه والديهم، على الرغم من أن الميزة جزء من تطبيق الرسائل، ومنفصلة عن اكتشاف CSAM، فقد لاحظت Apple أن الميزة لا تزال تلعب دورًا في إيقاف استغلال الأطفال، لأنها قد تعطل الرسائل المفترسة.

 

أخيرًا، تقوم Apple بتحديث Siri وقدرات البحث الخاصة به حتى تتمكن من "التدخل" في الاستفسارات حول CSAM، إذا سأل شخص ما عن كيفية الإبلاغ عن مواد إساءة الاستخدام، على سبيل المثال، فإن Siri سيوفر روابط لمصادر للقيام بذلك، إذا اكتشف أن شخصًا ما قد يبحث عن CSAM، فسيتم عرض تحذير وسطح الموارد لتقديم المساعدة.

 

متى يحدث هذا وهل يمكنك الانسحاب؟
ستكون التغييرات جزءًا من iOS 15، والذي سيتم طرحه في وقت لاحق من هذا العام، يمكن للمستخدمين إلغاء الاشتراك بشكل فعال عن طريق تعطيل صور iCloud (يمكن العثور على إرشادات للقيام بذلك هنا)، ومع ذلك، يجب على أي شخص يقوم بتعطيل iCloud Photos أن يضع في اعتباره أنه قد يؤثر على قدرتك على الوصول إلى الصور عبر أجهزة متعددة.

 

إذن كيف يعمل هذا المسح الضوئي للصور؟
Apple ليست الشركة الوحيدة التي تقوم بمسح الصور للبحث عن CSAM، ومع ذلك، فإن نهج Apple للقيام بذلك فريد من نوعه، يعتمد اكتشاف CSAM على قاعدة بيانات للمواد المعروفة، والتي تحتفظ بها NCMEC ومنظمات السلامة الأخرى، هذه الصور "مجزأة" (الاسم الرسمي لشركة Apple لهذا هو NeuralHash) - وهي عملية تحول الصور إلى رمز رقمي يسمح بالتعرف عليها، حتى إذا تم تعديلها بطريقة ما، مثل الاقتصاص أو إجراء تعديلات مرئية أخرى.

 

كما ذكرنا سابقًا، لا يعمل اكتشاف CSAM إلا إذا تم

تمكين iCloud Photos، ما هو ملحوظ في نهج Apple هو أنه بدلاً من مطابقة الصور بمجرد إرسالها إلى السحابة - كما تفعل معظم الأنظمة الأساسية السحابية - قامت Apple بنقل هذه العملية إلى أجهزة المستخدمين.

وإليك كيفية عملها: يتم تخزين تجزئة CSAM المعروفة على الجهاز، وتتم مقارنة الصور الموجودة على الجهاز بتلك التجزئة، يقوم جهاز iOS بعد ذلك بإنشاء "قسيمة أمان" مشفرة يتم إرسالها إلى iCloud مع الصورة، إذا وصل الجهاز إلى حد معين من CSAM ، فيمكن لشركة Apple فك تشفير قسائم الأمان وإجراء مراجعة يدوية لهذه الصور.

 

لماذا هذا مثير للجدل؟

أثار المدافعون عن الخصوصية والباحثون الأمنيون عددًا من المخاوف، أحد هذه الأسباب هو أن هذا يبدو وكأنه انعكاس كبير لشركة Apple، التي رفضت قبل خمس سنوات طلب مكتب التحقيقات الفيدرالي بإلغاء قفل الهاتف ووضعت لوحات إعلانية تنص على "ما يحدث على جهاز iPhone الخاص بك يبقى على جهاز iPhone الخاص بك، بالنسبة للكثيرين، فإن حقيقة أن Apple أنشأت نظامًا يمكنه التحقق بشكل استباقي من صورك بحثًا عن مواد غير قانونية وإحالتها إلى تطبيق القانون، يبدو وكأنه خيانة لهذا الوعد.

 

ماذا تقول شركة آبل عن هذا؟

نفت شركة Apple بشدة أنها تهين الخصوصية أو تتراجع عن التزاماتها السابقة، نشرت الشركة وثيقة ثانية تحاول فيها معالجة العديد من هذه الادعاءات.

فيما يتعلق بمسألة الإيجابيات الكاذبة، أكدت Apple مرارًا وتكرارًا أنها تقارن صور المستخدمين فقط بمجموعة من المواد المعروفة لاستغلال الأطفال ، لذلك لن تؤدي صور أطفالك، على سبيل المثال، إلى إصدار بلاغ، وقالت شركة Apple إن احتمالات النتيجة الإيجابية الخاطئة تبلغ حوالي واحد في كل تريليون عندما تضع في الاعتبار حقيقة أنه يجب اكتشاف عدد معين من الصور من أجل إجراء مراجعة. 

 

إذا كان الأمر مثيرًا للجدل، فلماذا تفعل Apple ذلك؟
الإجابة المختصرة هي أن الشركة تعتقد أن هذا هو إيجاد التوازن الصحيح بين زيادة سلامة الأطفال وحماية الخصوصية، CSAM غير قانوني، وفي الولايات المتحدة، الشركات ملزمة بالإبلاغ عنها عندما تجدها، نتيجة لذلك، تم دمج ميزات اكتشاف CSAM في الخدمات الشائعة لسنوات، ولكن على عكس الشركات الأخرى، لم تتحقق Apple من CSAM في صور المستخدمين، ويرجع ذلك إلى حد كبير إلى موقفها من الخصوصية، ليس من المستغرب أن يكون هذا مصدرًا رئيسا للإحباط لمنظمات سلامة الأطفال وإنفاذ القانون.

لمزيد من أخبار قسم التكنولوجيا تابع alwafd.news