Apple تكشف عن مزيد من التفاصيل حول تقنيات مسح الصور - DMC للمعلوميات

Page Nav

GRID_STYLE

🔥

latest

Ads Place

Apple تكشف عن مزيد من التفاصيل حول تقنيات مسح الصور

  كانت شركة Apple هدفاً للنقد منذ أن كشفت أنها ستقدم بعض ميزات سلامة الطفل في نظامها البيئي الذي سيسمح بمسح مواد الاعتداء الجنسي على الأطفال...

 


كانت شركة Apple هدفاً للنقد منذ أن كشفت أنها ستقدم بعض ميزات سلامة الطفل في نظامها البيئي الذي سيسمح بمسح مواد الاعتداء الجنسي على الأطفال (CSAM =Child Sexual Abuse Material). رسالة مفتوحة تطالب شركة آبل بوقف نشر هذه التكنولوجيا بفعل الآلاف من الموقعين. اعترفت الشركة داخليًا بأن بعض الأشخاص قلقون بشأن الميزات الجديدة ، لكنها قالت إن هذا يرجع إلى سوء الفهم الذي ستتناوله في الوقت المناسب. اليوم ، حققت وعدها. 

 

في مستند الأسئلة الشائعة المكون من ست صفحات والذي يمكنك عرضه هنا ، أكدت Apple أن تقنية مسح الصور الخاصة بها مقسمة إلى حالتين مميزتين للاستخدام. 

 

تتعلق الأولى باكتشاف الصور الجنسية الصريحة التي يرسلها أو يستقبلها الأطفال الذين يبلغون من العمر 12 عامًا أو أقل عبر تطبيق الرسائل. تستخدم هذه الإمكانية التعلم على الجهاز لطمس الصور الإشكالية تلقائيًا ، وإبلاغ الأطفال بأنهم ليسوا مضطرين لعرض المحتوى ، وتقديم التوجيه لهم ، وإبلاغ والديهم إذا كانوا لا يزالون يختارون عرض هذه الصور. في نفس السيناريو ، سيتم تقديم إرشادات مماثلة للأطفال الذين تتراوح أعمارهم بين 13 و 17 عامًا ولكن لن يتم إبلاغ والديهم. لكي يعمل هذا التدفق ، يجب إعداد الحسابات الفرعية في إعدادات العائلة على iCloud ، ويجب اختيار الميزة ، ويجب تمكين إشعارات الوالدين للأطفال. 

 

لا يتم إبلاغ أي كيان آخر بما في ذلك Apple أو السلطات القانونية إذا أرسل الطفل أو تلقى صورًا جنسية صريحة. على هذا النحو ، لا يكسر هذا أي ضمانات خصوصية موجودة أو تشفير من طرف إلى طرف. أكدت Apple أن الميزة قابلة للتطبيق على الرسائل فقط ، مما يعني أنه إذا تم إساءة معاملة الطفل ، فلا يزال بإمكانه الوصول للمساعدة عبر الرسائل النصية أو قنوات الاتصال الأخرى. 

 

الشق الثاني لنهج سلامة الطفل من Apple هو إبقاء CSAM خارج صور iCloud. في هذه الحالة ، سيتم مقارنة تجزئات صور iCloud مع صور CSAM المعروفة ، وسيتم إخطار الشركة إذا تم الكشف عن تطابق. لا تعمل هذه الميزة للصور الخاصة على الجهاز أو إذا تم تعطيل صور iCloud. 

 

أكدت الشركة أنها لا تقوم بتنزيل أي صور CSAM على جهازك للمقارنة. بدلاً من ذلك ، يحسب تجزئات صورك ويقارنها بمحتوى CSAM المعروف لتحديد النتيجة.

كشفت الشركة عن تفاصيل أخرى حول عمليتها الشاملة للكشف عن صور CSAM أيضًا. وقد ذكرت أن نظامها لا يعمل لأي شيء بخلاف وسائط CSAM ، حتى امتلاك مثل هذه الصور غير قانوني في العديد من البلدان. ومع ذلك ، لا يتم إبلاغ السلطات تلقائيًا.

 إذا كان هناك تطابق، تقوم Apple أولاً بمراجعة بشرية قبل إخطار السلطات.  صرح عملاق التكنولوجيا Cupertino بصراحة أنه لن يضيف صورًا غير CSAM للمقارنة ، حتى إذا كان هناك ضغط من بعض الحكومات. على نفس المنوال ، لا تضيف Apple نفسها تجزئات فوق صور CSAM المعروفة ، وبما أنها كلها مخزنة على مستوى نظام التشغيل ، فهذا يعني أنه لا يمكن استهداف أفراد معينين عن طريق إساءة استخدام التكنولوجيا.

  أخيرًا ، تفاخرت Apple بأن نظامها دقيق للغاية وأن احتمال وجود إيجابية خاطئة أقل من صورة واحدة لكل تريليون صورة سنويًا. حتى في أسوأ الحالات ، يوجد مراجع بشرية كشبكة أمان تقوم بمراجعة يدوية لحساب تم الإبلاغ عنه قبل إبلاغه إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

ليست هناك تعليقات

Copyrighted.com Registered & Protected