قبل يومين, أعلنت شركة آبل أنها ستطرح تقنية جديدة تسمح لها بمسح الصور التي تم تحميلها على iCloud باستخدام التعلم الآلي على الجهاز ومقارنة تج...
قبل يومين, أعلنت شركة آبل أنها ستطرح تقنية جديدة تسمح لها بمسح الصور التي تم تحميلها على iCloud باستخدام التعلم الآلي على الجهاز ومقارنة تجزئاتها بالصور المعروفة لمواد الاعتداء الجنسي على الأطفال (CSAM) . وذكرت أيضًا أنها ستبلغ الوالدين إذا تلقى طفل دون سن 13 عامًا أو أرسل صورًا جنسية صريحة. لفتت هذه الخطوة الكثير من الاهتمام والنقد ، برسالة مفتوحة تحتج على الأمر تحصل على أكثر من 5000 توقيع في وقت كتابة هذه السطور.
يمكن رؤية الرسالة المفتوحة المعنية هنا. يتم توجيهها مباشرة إلى Apple وتقول إنه في حين أن تحركات الشركة حسنة النية لأن استغلال الأطفال يمثل مشكلة خطيرة ، إلا أنها تخلق بابًا خلفيًا في النظام البيئي الذي يقوض حقوق الخصوصية الأساسية للعملاء. تقول الوثيقة أيضًا أنه نظرًا لأن المنهجيات تستخدم التعلم الآلي على الجهاز ، فإن لديها القدرة على كسر التشفير من طرف إلى طرف. كما يستشهد باقتباسات من العديد من المنظمات وخبراء الأمن للتأكيد على أن التكنولوجيا عرضة لإساءة استخدام الخصوصية وتقويضها.
في ضوء ما سبق ، طالبت الرسالة شركة Apple بوقف نشرها للتكنولوجيا على الفور وإصدار بيان يؤكد التزامها بخصوصية المستخدم. وحذرت من أن الطرح سيقوض كل العمل الذي كان حتى الآن نحو خصوصية المستخدم.
تم التوقيع على الرسالة المفتوحة حاليًا من قبل 5،544 فردًا و 31 منظمة بما في ذلك IVPN و Gigahost و Freedom of the Press Foundation والمزيد. يمكنك أيضًا أن تصبح موقعًا عبر GitHub هنا.
من جانبها ، اعترفت Apple بالفعل بأن الناس قلقون بشأن تقنيتها الجديدة ، ولكن هذا بسبب سوء الفهم الذي ستوضحه Apple بمرور الوقت.
ليست هناك تعليقات