Tənqidçilərin və istifadəçilərin çoxlu təkzibindən sonra Apple uşaqlara qarşı zorakılıq tədbirlərini təxirə salır.
Avqust ayında texnoloji nəhəng ilkin olaraq iCloud və Mesajlarda potensial uşaq istismarı görüntülərini aşkar etmək üçün texnologiyadan istifadə edən yeni siyasət elan etdi, lakin narahatlıqlar bundan sonra yarandı. Mütəxəssislər xəbərdarlıq ediblər ki, Apple istifadəçinin məxfiliyini vəd etsə də, texnologiya son nəticədə bütün Apple istifadəçilərini riskə atacaq.
Cümə günü Apple təkmilləşdirmələr etmək və istifadəçi məxfiliyini tam təmin etmək üçün texnologiyanın təqdimatını tamamilə təxirə salacağını söylədi.
"Müştərilərin, müdafiə qruplarının, tədqiqatçıların və digərlərinin rəyinə əsasən, biz bu kritik vacib uşaq təhlükəsizliyi xüsusiyyətlərini buraxmazdan əvvəl məlumat toplamaq və təkmilləşdirmələr etmək üçün gələn aylarda əlavə vaxt ayırmaq qərarına gəldik" dedi Apple. saytında yenilənmiş bəyanat.
Uşaqların cinsi istismarı materialının aşkarlanması texnologiyası bu ilin sonunda iOS 15-də istifadəyə verilməli idi, lakin funksiyanın nə vaxt və ya debüt edəcəyi indi məlum deyil.
Yeni texnologiya iki şəkildə işləyəcək: birincisi, şəklin iCloud-a ehtiyat nüsxəsini çıxarmazdan əvvəl onu skan etməklə. Bu şəkil CSAM meyarlarına uyğun gəlsə, Apple həmin məlumatları alacaq. Texnologiyanın digər hissəsi uşaqların Mesajlar vasitəsilə aldığı açıq-saçıq cinsi təsvirləri müəyyən etmək və tutqunlaşdırmaq üçün maşın öyrənməsindən istifadə edir.
Lakin, yeni siyasət elan edildikdən sonra məxfilik müdafiəçiləri və qruplar Apple-ın əslində pis aktyorların sui-istifadə edə biləcəyi arxa qapı açdığını söylədi.
Bu narahatlıqları aradan qaldırmaq üçün Apple CSAM texnologiyasını elan etdikdən qısa müddət sonra tez-tez verilən suallar səhifəsini buraxdı. Apple izah etdi ki, texnologiya cihazda saxlanan bütün fotoşəkilləri skan etməyəcək, Mesajlarda başdan-başa şifrələməni pozmayacaq və günahsız insanları hüquq-mühafizə orqanlarına saxta elan etməyəcək.