رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين

آبل تؤجل طرح أدوات الكشف عن مواد الاعتداء الجنسي على الأطفال

آيفون iPhone
آيفون iPhone

تقول شركة Apple إنها تؤخر طرح أدوات الكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) "لإجراء تحسينات" بعد رد النقاد، تتضمن الميزات ميزة تحلل صور iCloud بحثًا عن CSAM المعروفة، الأمر الذي أثار قلقًا بين دعاة الخصوصية.

 

قالت شركة Apple لـ 9to5Mac في بيان: "أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار مواد الاعتداء الجنسي على الأطفال." مجموعات المناصرة والباحثين وغيرهم ، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه. "

 

خططت Apple لطرح أنظمة الكشف عن CSAM كجزء من تحديثات نظام التشغيل القادمة ، وهي iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey. ومن المتوقع أن تفرج الشركة عن هؤلاء في الأسابيع المقبلة. لم تدخل Apple في التفاصيل حول التحسينات التي قد تجريها. اتصلت Engadget بالشركة للتعليق.

 

تضمنت الميزات المخطط لها ميزة خاصة بالرسائل ، والتي ستُعلم الأطفال وأولياء أمورهم عندما تكتشف Apple أن الصور الجنسية الصريحة تتم مشاركتها في التطبيق باستخدام أنظمة التعلم الآلي على الجهاز. سيتم تعتيم مثل هذه الصور المرسلة إلى الأطفال وتتضمن تحذيرات.

 

سيقوم Siri ووظائف البحث المضمنة في iOS و macOS بتوجيه المستخدمين الموجودين إلى الموارد المناسبة عندما يسأل شخص ما عن كيفية الإبلاغ عن CSAM أو يحاول إجراء عمليات بحث متعلقة بـ CSAM.

سترسل ميزة رسائل Apple الجديدة للأطفال تحذيرات عند إرسال أو استلام صور جنسية صريحة. 


ربما تكون أداة iCloud Photos هي أكثر ميزات الكشف عن CSAM إثارة للجدل التي أعلنت عنها Apple. وتخطط لاستخدام نظام على الجهاز لمطابقة الصور مع قاعدة بيانات تجزئات صور CSAM المعروفة (نوع من البصمة الرقمية لمثل هذه الصور) التي يحتفظ بها المركز الوطني للأطفال المفقودين والمستغلين ومنظمات أخرى. من المفترض أن يتم هذا التحليل قبل تحميل الصورة على iCloud Photos. إذا اكتشف النظام CSAM وقام المراجعون البشريون بتأكيد المطابقة يدويًا ، فستقوم Apple بتعطيل حساب الشخص وإرسال تقرير إلى NCMEC.

 

زعمت شركة Apple أن هذا النهج سيوفر "مزايا الخصوصية على التقنيات الحالية لأن Apple لا تعرف سوى

صور المستخدمين إذا كان لديهم مجموعة من CSAM المعروفة في حساب iCloud Photos الخاص بهم." ومع ذلك ، فقد كان دعاة الخصوصية في حالة غضب بشأن الخطوة المخطط لها.

 

يقترح البعض أن مسح صور CSAM يمكن أن يؤدي إلى تطبيق القانون أو تدفع الحكومات شركة Apple للبحث عن أنواع أخرى من الصور ربما ، على سبيل المثال ، لتضييق الخناق على المعارضين. باحثان من جامعة برينستون يقولان إنهما بنيا نظامًا مشابهًا يسمى التكنولوجيا "الخطرة". لقد كتبوا أن "نظامنا يمكن إعادة توظيفه بسهولة للمراقبة والرقابة. لم يقتصر التصميم على فئة معينة من المحتوى ؛ يمكن للخدمة ببساطة التبديل في أي قاعدة بيانات لمطابقة المحتوى ، ولن يكون الشخص الذي يستخدم هذه الخدمة أكثر حكمة ".

 

كما دعا النقاد شركة آبل على ما يبدو إلى معارضتها لموقفها الراسخ في الحفاظ على خصوصية المستخدم. من المعروف أنها رفضت فتح iPhone الذي استخدمه مطلق النار في San Bernardino لعام 2016 ، وبدأت معركة قانونية مع مكتب التحقيقات الفيدرالي.

 

قالت شركة آبل في منتصف شهر أغسطس الماضي ، إن ضعف التواصل أدى إلى حدوث ارتباك بشأن الميزات ، والتي أعلنت عنها قبل أسبوع بقليل. وأشار نائب رئيس الشركة الأول لهندسة البرمجيات ، كريج فيديريجي ، إلى أن نظام مسح الصور لديه "مستويات متعددة من قابلية التدقيق". ومع ذلك ، فإن شركة آبل تعيد التفكير في نهجها. لم تعلن عن جدول زمني جديد لطرح الميزات.