رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل

باحثان يكشفان عيوب تقنية آبل للكشف عن مواد الاعتداء الجنسي على الأطفال

آيفون
آيفون

منذ أن أعلنت شركة آبل أنها تعمل على تقنية للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM)، كان النظام مصدرًا مثيرًا للجدل، الآن، يقول اثنان من الأكاديميين في جامعة برينستون إنهما يعلمان أن الأداة التي بنتها شركة Apple مفتوحة لسوء الاستخدام لأنهما أمضيا سنوات في تطوير نفس النظام بدقة تقريبًا.

 

كتب الأستاذ المساعد جوناثان ماير والباحث المتخرج Anunay Kulshrestha في مقال رأي نشرته صحيفة The Washington Post هذا الأسبوع: "كتبنا المنشور الوحيد الذي راجعه النظراء حول كيفية بناء نظام مثل نظام Apple - وخلصنا إلى أن التكنولوجيا كانت خطيرة".

 

عمل الاثنان معًا على نظام لتحديد CSAM في خدمات الإنترنت المشفرة من طرف إلى طرف،  مثل Apple، أرادوا إيجاد طريقة للحد من انتشار CSAM مع الحفاظ على خصوصية المستخدم، كان جزء من دافعهم هو تشجيع المزيد من الخدمات عبر الإنترنت لاعتماد التشفير من طرف إلى طرف، وقال الباحثون: "نشعر بالقلق من إحجام الخدمات عبر الإنترنت عن استخدام التشفير بدون أدوات إضافية لمكافحة CSAM".

 

قضى الاثنان سنوات في العمل على الفكرة، وفي النهاية قاما بإنشاء نموذج أولي عملي، ومع ذلك، سرعان ما قرروا أن هناك مشكلة صارخة في تقنيتهم، كتب ماير وكولشرستا: "يمكن إعادة استخدام نظامنا لأغراض المراقبة والرقابة بسهولة، لم يقتصر التصميم على فئة معينة من المحتوى؛ يمكن للخدمة ببساطة التبديل في أي قاعدة بيانات لمطابقة المحتوى، ولن يكون الشخص الذي يستخدم هذه الخدمة أكثر حكمة".

 

كما حذروا من أن هذا ليس مصدر قلق افتراضي، يشير الباحثان إلى أمثلة مثل WeChat، التي وجد مختبر Citizen Lab التابع لجامعة تورنتو أنها تستخدم خوارزميات مطابقة المحتوى لاكتشاف المواد المنشقة.

 

قال الباحثان إن الصين هي ثاني أكبر سوق لشركة Apple، مع وجود مئات الملايين من الأجهزة على الأرجح، وما الذي يمنع الحكومة الصينية من مطالبة Apple بفحص هذه الأجهزة بحثًا عن مواد مؤيدة للديمقراطية، مشيرين إلى عدة حالات حيث أذعنت شركة Apple لمطالب الحكومة الصينية.

 

يواصل ماير وكولشرستا: "لقد رصدنا أوجه قصور أخرى، قد يكون لعملية مطابقة المحتوى نتائج إيجابية خاطئة، ويمكن للمستخدمين الخبثاء التلاعب بالنظام لإخضاع المستخدمين الأبرياء للتدقيق"، هذه هي المخاوف التي أثارها دعاة الخصوصية أيضًا حول نظام Apple.

 

بالنسبة للجزء الأكبر، حاولت Apple التقليل من شأن العديد من المخاوف التي تكررها Mayer و Kulshrestha في مقال رأيهم، أرجع النائب الأول لرئيس هندسة البرمجيات كريج فيديريجي الجدل مؤخرًا إلى ضعف الرسائل، ورفض فكرة إمكانية استخدام النظام للمسح بحثًا عن مواد أخرى، مشيرًا إلى أن قاعدة بيانات الصور تأتي من مجموعات سلامة الأطفال المختلفة.

لمزيد من أخبار التكنولوجيا تابع Alwafd.News