الجمعة 22 نوفمبر 2024 05:52 مـ 20 جمادى أول 1446هـ

رئيس التحرير محمد يوسف رئيس مجلس الإدارة خالد فؤاد حبيب

رئيس التحرير محمد يوسف رئيس مجلس الإدارة خالد فؤاد حبيب

اتصالات وتكنولوجيا

Apple تحارب الاعتداء الجنسى على الأطفال

آبل
آبل

عندما أعلنت Apple عن وضع تغييرات تخطط لإدخالها على أجهزة iOS فى محاولة للمساعدة فى الحد من إساءة معاملة الأطفال من خلال العثور على مواد الاعتداء الجنسى على الأطفال (CSAM)، ولدت أجزاء من خطتها ردود فعل عنيفة.

ومنها وفقا لما نشره موقع " the verege " التقنى، أولاً، يتم طرح تحديث لتطبيق البحث والمساعد الصوتى Siri على iOS 15 و watchOS 8 و iPadOS 15 و macOS Monterey، عندما يبحث المستخدم عن مواضيع تتعلق بالاعتداء الجنسى على الأطفال، ستعيد Apple توجيه المستخدم إلى موارد للإبلاغ عن CSAM ، أو الحصول على مساعدة لجذب هذا المحتوى.

ولكن خطتى CSAM الأخريين من Apple هما اللتان قوبلتا بالنقد، وسيضيف أحد التحديثات خيار الرقابة الأبوية إلى الرسائل، ويرسل تنبيها إلى الوالدين إذا كان طفل يبلغ من العمر 12 عاما أو أصغر يشاهد أو يرسل صورا جنسية صريحة، ويحجب الصور لأى مستخدمين أقل من 18 عامًا.

والأمر الأكثر إثارة للجدل هو خطة Apple لمسح الصور الموجودة على الجهاز للعثور على CSAM قبل تحميلها على iCloud ، وإبلاغ المشرفين فى Apple بها والذين يمكنهم بعد ذلك تحويل الصور إلى المركز الوطنى للأطفال المفقودين والمستغلين (NCMEC) فى حالة وجود تطابق محتمل، وبينما تقول Apple إن الميزة ستحمي المستخدمين مع السماح للشركة بالعثور على محتوى غير قانونى، ويقول العديد من منتقدى Apple والمدافعين عن الخصوصية إن هذا الحكم هو فى الأساس باب خلفى أمنى، وهو تناقض واضح مع التزام Apple المعلن منذ فترة طويلة بخصوصية المستخدم.

 

آبل الصور الجنسية والاطفال تقنيات تمنع الصور الجنسية للاطفال آبل وحجب الصور الجنسية