”آبل” تؤجل خطة البحث عن صور إساءة معاملة الأطفال
بعد التعرض لانتقادات شديدة، أجلت شركة آبل Apple الأمريكية خطة مسح هواتف آيفون بحثًا عن صور تظهر إساءة معاملة الأطفال، أو التنمر، والتحرش بهم.
وقالت شركة آبل، إنها اخترعت أداة جديدة تم تصميمها لاكتشاف ما إذا كان قد تم تحميل صور الاعتداء الجنسي على الأطفال على iCloud من قبل المستخدمين، لكن النقاد زعموا أن البرنامج، المسمى NeuralMatch ، كان انتهاكًا للخصوصية، وكان عرضة للخطأ.
وبعد سيل من الانتقادات من مجموعات الخصوصية، تراجعت شركة آبل Apple عن قرارها، وأخرت خططها لإدخال "ميزة أمان الطفل" على أجهزة آيفون iPhone
وقالت شركة آبل الشهر الماضي، إن هناك أداة ستتحقق من هواتف آيفون iPhone وأجهزة الكمبيوتر الشخصية للعملاء في الولايات المتحدة، لتحديد الصور الشائعة لدى المتحرشين بالأطفال.
اقرأ أيضاً
- اعرف أماكن وشروط وأسعار شقق «سكن لكل المصريين»
- ينافس آيفون 13 برو ماكس .. أسعار ومواصفات سامسونج Galaxy S22
- «بقالي التموين»: إدراج الدواجن والبط والأسماك وأصناف أخرى بالبطاقة بأسعار مدعمة
- صناع فيلم ”ماكو” يحتفلون بالعرض الخاص
- الزراعة: أسعار الألبان والدواجن والأسماك مستقرة منذ عامين
- ننشر الأماكن الشاغرة لطلاب المرحلة الثانية فى تنسيق الجامعات 2021
- ماكرون: قطر لعيت دورا مميزا في المفاوضات مع ”طالبان”
- ماكرون: الحوار مع طالبان عن الإجلاء ليس اعترافا بالحركة
- حقيقة ظهور أسماك القرش والدلافين بشواطئ الغردقة
- ميدو لـ شيكابالا: ”مش هضحك الناس علينا”
- ”طالبان” تحظر الموسيقى في الأماكن العامة
- صبرنا نفد .. سيناتور جزائرى يستبعد الصدام العسكرى مع المغرب
وأصرت شركة آبل، التي كانت تخطط لطرح الميزة لأجهزة آيفون iPhone و آيباد iPad وماك Mac في وقت لاحق من هذا العام، على أن البرنامج لن يقوم بالإبلاغ عن الصور البريئة مثل لقطات العطلات للأطفال الصغار وهم يرتدون ملابس السباحة.
وفي سياق متصل قال المنتقدون، إن الفكرة هي قمة جبل الجليد، ويمكن أن تسمح للحكومات القمعية بمسح الهواتف بحثًا عن الصور السياسية، والرسوم المتحركة، ويمكن استخدامها كأداة للرقابة.
وأصرت شركة آبل Apple على أنها ستسمح للباحثين الأمنيين بالتحقق من مزاعمها، لكن اليوم الجمعة، تراجعت الشركة أخيرًا، وقالت إنها ستعلق خططها.
وقالت شركة آبل Apple في بيان: "بناءً على التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات، وإجراء التحسينات قبل إصدار ميزات سلامة الأطفال بالغة الأهمية هذه."
#Apple has postponed the launch of a feature that automatically detects photos containing scenes of child abuse (#CSAM) in #iOS 15.
The company listened to the criticism and promised to refine the algorithm.
Last month, we announced plans to create features designed to help pic.twitter.com/X8vifn2J47
— Yaroslav Gavrilov (@appletesterrus) September 3, 2021