أجلت شركة آبل ميزات حماية الطفل التي تم الإعلان عنها في الشهر الماضي، بما في ذلك ميزة مثيرة للجدل من شأنها فحص صور المستخدمين بحثًا عن مواد الاعتداء الجنسي على الأطفال CSAM، بعد انتقادات شديدة بأن التغييرات قد تقلل من خصوصية المستخدم.
وكان من المقرر تنفيذ التغييرات في وقت لاحق من هذا العام. وقالت الشركة في بيان: أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لاستغلالهم والحد من انتشار مواد الاعتداء الجنسي على الأطفال.
وأضافت: استنادًا إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه.
ويفصل هذا الإصدار ثلاث تغييرات رئيسية في الأعمال. وقد يشير تغيير واحد بشأن البحث وسيري إلى موارد لمنع CSAM إذا بحث المستخدم عن المعلومات المتعلقة بها.
وخضع التغييران الآخران لمزيد من التدقيق. ويمكن لأحد التغييرات تنبيه الآباء عندما يتلقى أطفالهم أو يرسلون صورًا جنسية صريحة مع طمس هذه الصور للأطفال.
آبل تؤخر ميزات حماية الطفل المثيرة للجدل
كان من الممكن أن يقوم التغيير الآخر بفحص الصور المخزنة في صور آيكلاود للمستخدم بحثًا عن مواد CSAM وإبلاغ مشرفي الشركة، الذين يمكنهم بعد ذلك إحالة التقارير إلى المركز الوطني للأطفال المفقودين والمستغلين، أو NCMEC.
وشرحت الشركة نظام فحص الصور عبر آيكلاود بالتفصيل لإثبات أنه لم يضعف خصوصية المستخدم. وباختصار، يفحص النظام الصور المخزنة في صور آيكلاود عبر جهاز iOS. ويقوم بتقييم تلك الصور إلى جانب قاعدة بيانات لتجزئة صور CSAM المعروفة من NCMEC وغيرها من منظمات سلامة الأطفال.
ومع ذلك، انتقد العديد من خبراء الخصوصية بشدة الشركة بسبب النظام الجديد. وذلك بحجة أنه من الممكن أن يوفر نظام مراقبة ضمن الجهاز. وأنه ينتهك الثقة التي وضعها المستخدمون في الشركة لحماية الخصوصية عبر الجهاز.
وقالت مؤسسة الحدود الإلكترونية في بيان صدر في الخامس من أغسطس: إن النظام الجديد يكسر الوعود الرئيسية لتشفير برنامج المراسلة نفسه ويفتح الباب أمام انتهاكات أوسع.