رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
عاطف خليل

آبل تفحص iPhone و iPad بحثًا عن صور الاعتداء الجنسي على الأطفال.. كيف وأين تعمل التقنية الجديدة

آبل Apple
آبل Apple

سيستخدم آبل تقنية التعلم الآلي على الجهاز لمسح صور المستخدمين ومطابقتها بقاعدة بيانات معروفة لمواد الاعتداء الجنسي على الأطفال، يحدث هذا تلقائيًا دون أن يرى عملاق التكنولوجيا نفسه الصور الحالية للعميل، ومع ذلك، إذا أشار النظام إلى وجود تطابق محتمل، فسيخطر الشخص الذي سيقوم بعد ذلك بمراجعته وإرساله إلى جهات إنفاذ القانون ذات الصلة.

 

(اقرأ أيضًا) آبل تطلق نظام فحص الصور على أساس كل بلد

 

تفاصيل تقنية آبل الجديدة لفحص صور الاعتداء على الأطفال

 

أوضحت شركة آبل في بيان على موقعها على الإنترنت: "ستسمح التكنولوجيا الجديدة في iOS و iPadOS لشركة Apple باكتشاف صور CSAM المعروفة المخزنة في iCloud Photos،سيمكن هذا Apple من الإبلاغ عن هذه الحالات إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، يعمل NCMEC كمركز إبلاغ شامل لـ CSAM ويعمل بالتعاون مع وكالات إنفاذ القانون في جميع أنحاء الولايات المتحدة.

 

تم تصميم طريقة Apple للكشف عن CSAM المعروفة مع مراعاة خصوصية المستخدم، بدلاً من مسح الصور في السحابة، يقوم النظام بإجراء المطابقة على الجهاز باستخدام قاعدة بيانات من تجزئات صور CSAM المعروفة المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال، تقوم Apple أيضًا بتحويل قاعدة البيانات هذه إلى مجموعة غير قابلة للقراءة من التجزئات المخزنة بأمان على أجهزة المستخدمين.

 

قبل تخزين الصورة في صور iCloud، يتم إجراء عملية مطابقة على الجهاز لتلك الصورة مقابل تجزئات CSAM المعروفة، يتم تشغيل عملية المطابقة هذه بواسطة تقنية تشفير تسمى تقاطع المجموعة الخاصة، والتي تحدد ما إذا كان هناك تطابق دون الكشف عن النتيجة، يقوم الجهاز بإنشاء قسيمة أمان مشفرة تقوم بترميز نتيجة المطابقة بالإضافة إلى بيانات مشفرة إضافية حول الصورة، يتم تحميل هذه الإيصال إلى صور iCloud مع الصورة.

 

تستمر Apple في القول إن حسابات iCloud ستظل خاصة ما لم تتجاوز عتبة معينة من محتوى CSAM المعروف، بمجرد تجاوز هذا الحد، سيتم إلغاء قفل تقنية التشفير التي تستخدمها Apple لتشفير الصور حتى تتمكن الشركة من فحص محتويات iCloud الخاصة بالمستخدم والتي تتطابق مع المحتوى الذي تم الإبلاغ عنه، إذا قررت Apple أن هناك تطابقًا، فستقوم بتعطيل حساب المستخدم وإبلاغ السلطات.

 

أشاد جيك مور، الرئيس السابق للطب الشرعي الرقمي في شرطة دورست واختصاصي الأمن السيبراني في شركة الأمن السيبراني العالمية ESET، بخطوة شركة Apple، لكنه قال أيضًا إنه قد يكون هناك تداعيات

أوسع.

 

قال مور: "كان المسح بحثًا عن صور غير لائقة معروفة على الحسابات المستندة إلى السحابة أداة أساسية تستخدمها سلطات إنفاذ القانون لسنوات لتحديد الجناة"، ومع ذلك، فقد اتخذت Apple هذه الخطوة إلى الأمام من خلال إيجاد طريقة لفحص الأجهزة قبل أن تصل هذه الصور إلى السحابة، القلق المحتمل عندما تحرز شركات التكنولوجيا تقدمًا مثل هذا هو أنها ستدفع CSAM إلى مزيد من السرية، لكن هذا من المرجح أن يلحق بهؤلاء في المراحل المبكرة من الخوض في المواد غير اللائقة ونأمل تقديم هؤلاء للعدالة قبل أن تخرج مشكلتهم عن السيطرة.

 

حتى إذا كانت هذه الميزة تستغرق وقتًا لنشرها عبر إجراءات تطبيق القانون في العالم، فإنها ترسل رسالة واضحة إلى أولئك الذين يفكرون في تخزين مثل هذه المواد على أجهزتهم، وأضاف: "هناك خطوة كبيرة أخرى اتخذتها Apple هنا وهي ادعائهم القدرة على تحديد موقع الصور المعروفة بعد تعديلها بشكل طفيف، في السابق كان من المستحيل العثور على صورة معروفة إذا تم تغيير حتى بكسل واحد لأنه يؤثر على قيمة التجزئة بشكل كبير وهو العامل المستخدم للعثور عليها في قاعدة البيانات".

 

في الوقت الحالي، تطرح Apple هذه الميزات في السوق الأمريكية فقط، يبقى أن نرى ما إذا كانت أجهزة iPhone أو iPad في بقية أنحاء العالم سيتم تضمينها أيضًا في وقت لاحق.

لمزيد من أخبار قسم التكنولوجيا تابع alwafd.news

موضوعات ذات صلة

أبل تعد برفض أي استغلال حكومي لهذه الميزة الجديدة

آبل تعلن عن ميزات iPhone جديدة تكشف الاعتداء الجنسي على الأطفال

آبل تسحب تطبيقًا اجتماعيًا لمكافحة التطهير