الاثنين، 23 يناير 2023

كيف تخطط Apple لمراقبة المستخدمين

في أوائل أغسطس 2021، قامت شركة Apple كشفت النقاب عن نظامها الجديد للتعرف على الصور التي تحتوي على صور لإساءة معاملة الأطفال.على الرغم من أن دوافع شركة Apple تمثلت في مكافحة نشر المواد الإباحية المتعلقة بالأطفال، حيث يحمل الأمر بادرة حسن النية بلا شك، فإن الإعلان تعرَّض لانتقادات على الفور.

لطالما طورت Apple الصورة الخاصة بها كصانع أجهزة يهتم بخصوصية المستخدم. لقد وجهت الميزات الجديدة المتوقعة لنظامي التشغيل iOS 15 وiPadOS 15 بالفعل ضربة خطيرة لتلك السمعة، لكن الشركة لا تتراجع. إليك ما حدث وكيف سيؤثر على متوسط نسبة مستخدمي أجهزة iPhone و iPad.

ماهو نظام اكتشاف CSAM

تم تحديد خطط Apple على موقع الشركة.طورت الشركة نظامًا يسمى تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال CSAM Detection، إذ يقوم بالبحث داخل أجهزة المستخدمين عن “مواد الاعتداء الجنسي على الأطفال”، والمعروفة أيضًا باسم CSAM.

على الرغم من أن “استغلال الأطفال في المواد الإباحية” مرادف لـ CSAM، إلا أن المركز الوطني للأطفال المفقودين والمستغَلين (المركز الوطني للأطفال المفقودين والمستغلين)، الذي يساعد في العثور على الأطفال المفقودين والمستغَلين وإنقاذهم في الولايات المتحدة، يعتبر مصطلح “CSAM” المصطلح الأكثر ملاءمة. يزود المركز الوطني للأطفال المفقودين والمستغلين شركة Apple وشركات التكنولوجيا الأخرى بمعلومات حول صور مواد الاعتداء الجنسي على الأطفال CSAM المعروفة.

قدمت Apple تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال إلى جانب العديد من الميزات الأخرى التي توسع الرقابة الأبوية على أجهزة Apple المحمولة. على سبيل المثال، سيتلقى الآباء إشعارًا إذا أرسل شخص ما إلى طفلهم صورة جنسية صريحة عبر تطبيق Apple Messages.

أدى الكشف المتزامن عن العديد من التقنيات إلى بعض الارتباك، وشعر الكثير من الناس أن Apple ستراقب الآن جميع المستخدمين طوال الوقت. لكن الأمر ليس كذلك. 

ليست هناك تعليقات:

إرسال تعليق