لن نوافق على طلب أي حكومة لتوسيعه "
في سؤال شائع جديد ، حاولت Apple تهدئة المخاوف من أن إجراءاتها الجديدة لمكافحة إساءة معاملة الأطفال يمكن أن تتحول إلى أدوات مراقبة من قبل الحكومات الاستبدادية. كتبت الشركة: "لنكن واضحين ، تقتصر هذه التكنولوجيا على اكتشاف CSAM [مواد الاعتداء الجنسي على الأطفال] المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعها".
تشتمل أدوات Apple الجديدة ، التي تم الإعلان عنها يوم الخميس الماضي ، على ميزتين مصممتين لحماية الأطفال. أحدهما ، يسمى "أمان الاتصال" ، يستخدم التعلم الآلي على الجهاز لتحديد وتمويه الصور الجنسية الصريحة التي يتلقاها الأطفال في تطبيق الرسائل ، ويمكنه إخطار أحد الوالدين إذا قرر طفل يبلغ من العمر 12 عامًا أو أصغر عرض هذه الصورة أو إرسالها. والثاني مصمم لاكتشاف CSAM المعروف عن طريق مسح صور المستخدمين إذا اختاروا تحميلها على iCloud. يتم إخطار Apple إذا تم اكتشاف CSAM ، وسوف تنبه السلطات عندما تتحقق من وجود هذه المواد.
"تم بناء قدرات اكتشاف CSAM الخاصة بـ APPLE فقط لاكتشاف صور CSAM المعروفة"
قوبلت الخطط برد فعل عنيف سريع من مجموعات الخصوصية الرقمية والناشطين ، الذين جادلوا بأن هذه توفر بابًا خلفيًا في برامج Apple. تشير هذه المجموعات إلى أنه بمجرد وجود مثل هذا الباب الخلفي ، يكون هناك دائمًا احتمال توسيعه للبحث عن أنواع المحتوى التي تتجاوز مواد الاعتداء الجنسي على الأطفال. يمكن للحكومات الاستبدادية استخدامه للبحث عن مواد معارضة سياسيًا ، أو يمكن للأنظمة المناهضة للمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية استخدامه لقمع التعبير الجنسي.
كتبت مؤسسة Electronic Frontier Foundation: "حتى الباب الخلفي الموثق بدقة ، والمدروس بعناية ، والضيق النطاق لا يزال بابًا خلفيًا". "لقد رأينا بالفعل هذه المهمة تتسلل في العمل. تم إعادة توظيف إحدى التقنيات التي تم إنشاؤها في الأصل لفحص صور الاعتداء الجنسي على الأطفال وتجزئتها لإنشاء قاعدة بيانات للمحتوى "الإرهابي" الذي يمكن للشركات المساهمة فيه والوصول إليه لغرض حظر مثل هذا المحتوى ".
ومع ذلك ، تجادل شركة Apple بأن لديها ضمانات لمنع استخدام أنظمتها لاكتشاف أي شيء آخر غير صور الاعتداء الجنسي. تقول أن قائمة الصور المحظورة مقدمة من المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ومنظمات سلامة الأطفال الأخرى ، وأن النظام "يعمل فقط مع تجزئات صور CSAM المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال". تقول Apple إنها لن تضيف إلى قائمة تجزئات الصور هذه ، وأن القائمة هي نفسها عبر جميع أجهزة iPhone و iPad لمنع الاستهداف الفردي للمستخدمين.
تقول الشركة أيضًا إنها سترفض مطالب الحكومات بإضافة صور غير CSAM إلى القائمة. "لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات. سنستمر في رفضهم في المستقبل.
ومن الجدير بالذكر أنه على الرغم من تأكيدات شركة Apple ، فقد قدمت الشركة تنازلات للحكومات في الماضي من أجل مواصلة العمل في بلدانهم. تبيع أجهزة iPhone بدون FaceTime في البلدان التي لا تسمح بالمكالمات الهاتفية المشفرة ، وفي الصين أزلت آلاف التطبيقات من متجر التطبيقات التابع لها ، كما تم نقلها لتخزين بيانات المستخدم على خوادم اتصالات تديرها الدولة.
فشلت الأسئلة الشائعة أيضًا في معالجة بعض المخاوف بشأن الميزة التي تقوم بمسح الرسائل بحثًا عن مواد جنسية صريحة. تقول الشركة إن الميزة لا تشارك أي معلومات مع Apple أو تطبيق القانون ، لكنها لا توضح كيف تضمن أن يظل تركيز الأداة على الصور الجنسية الصريحة فقط.
كتب: "كل ما يتطلبه الأمر لتوسيع الباب الخلفي الضيق الذي تقوم شركة Apple ببنائه هو توسيع معايير التعلم الآلي للبحث عن أنواع إضافية من المحتوى ، أو تعديل أعلام التكوين لمسح حسابات أي شخص ، ليس فقط للأطفال" EFF. تلاحظ EFF أيضًا أن تقنيات التعلم الآلي كثيرًا ما تصنف هذا المحتوى بشكل غير صحيح ، وتستشهد بمحاولات Tumblr لقمع المحتوى الجنسي كمثال بارز على الأخطاء التي حدثت فيها التكنولوجيا.
الإبتساماتإخفاء