شرکت اپل قرار است شروع به بررسی عکس های گوشی های آیفون وعکس های ذخیره شده درiCloud بکند و علت این کار پیدا کردن عکس هایی میباشد که نشانه هایی از کودک آزاری دارند.

اپل روز پنجشنبه اعلام کرد که قرار است آزمایشی انجام دهد که طی آن سیستم جدیدی بر روی گوشی های آیفون به طور خودکار عکس های موجود در گوشی های این شرکت و عکس های بارگزاری شده در حساب های iCloud را بررسی میکند و اگر میان آن ها تصاویری حاکی از سوء استفاده جنسی علیه کودکان موجود باشد به مقامات دراین باره هشدار می دهد.

این شرکت در یک کنفرانس مطبوعاتی نحوه ی عملکرد این سرویس جدید را توضیح داد که عکس های دستگاه ها به مجموعه ای از ارقام و کد ناخوانا و پیچیده تبدیل میشوند سپس این اعداد با پایگاه داده ای از کد های ارائه شده توسط مرکز ملی کودکان مفقود شده تطبیق داده میشوند.

برخی از حامیان حریم خصوصی به سرعت نگرانی خود را در خصوص این اقدام مطرح کردند.

گرگ نوجیم , مدیر پروژه امنیت و نظارت در مرکز دموکراسی و فناوری می گوید: اپل در حال جایگزینی سیستم پیام رسانی رمزنگاری شده توسط صنعت استاندارد خود به زیرساختی برای نظارت و سانسور افراد است که نه تنها در ایالات متحده ، بلکه در سراسر جهان در معرض سوء استفاده قرار خواهد گرفت, اپل باید این اقدام خود را متوقف کرده و اعتماد را دوباره به مشتریان خود بازگرداند.

در جواب به این موضوع, اپل تأکید کرد که ابزار نام برده شده قرار نیست تمامی عکس های کاربران را “اسکن” کند و فقط تصاویری که مطابق با  پایگاه داده ی موسسه حمایت از کودکان است به مقامات تحویل داده میشود. (این بدان معناست که اگر کاربری عکسی برای مثال از کودک خود در وان حمام دارد و این عکس نشانه ای از خشونت و یا سو استفاده های جنسی نداشته باشد به هیچ عنوان پخش نخواهد شد.)

 

 

دیدگاهتان را بنویسید