Niyə Emosiya Oxuyan Proqram Məxfiliyinizi poza bilər

Mündəricat:

Niyə Emosiya Oxuyan Proqram Məxfiliyinizi poza bilər
Niyə Emosiya Oxuyan Proqram Məxfiliyinizi poza bilər
Anonim

Əsas Çıxarışlar

  • Zoom-un istifadəçinin əhval-ruhiyyəsini və ya əlaqə səviyyəsini qiymətləndirmək üçün süni intellektdən istifadə edəcəyini bildirib.
  • İnsan haqları qrupları məxfilik və məlumat təhlükəsizliyi ilə bağlı narahatlıqlara görə Zoom-dan planını yenidən nəzərdən keçirməsini xahiş edir.
  • Bəzi şirkətlər istifadəçinin diqqət edib-etmədiyini qiymətləndirmək üçün müsahibələr zamanı emosiya aşkarlayan proqram təminatından da istifadə edirlər.
Image
Image

İnsan emosiyalarını izləmək üçün süni intellektin (AI) artan istifadəsi məxfiliklə bağlı narahatlıq doğurur.

İnsan haqları təşkilatları Zoom-dan video konfrans proqramında emosiyaları təhlil edən süni intellekt tətbiq etmək planını yavaşlatmağı xahiş edir. Şirkət, istifadəçinin əhval-ruhiyyəsini və ya məşğulluq səviyyəsini qiymətləndirmək üçün süni intellektdən istifadə edəcəyini bildirib.

"Mütəxəssislər emosiya analizinin işləməyəcəyini etiraf edirlər" deyə ACLU daxil olmaqla insan haqları qrupları konsorsiumu Zoom-a yazdığı məktubda yazıb. "Üz ifadələri çox vaxt altındakı emosiyalarla əlaqəsi kəsilir və araşdırmalar müəyyən edib ki, hətta insanlar bəzən başqalarının emosiyalarını dəqiq oxuya və ya ölçə bilmirlər. Bu alətin hazırlanması yalançı elmə inam əlavə edir və nüfuzunuzu riskə atır."

Böyütmə Lifewire-ın şərh sorğusuna dərhal cavab vermədi.

Duyğularınıza nəzarət edin

Protokol məqaləsinə əsasən, Q for Sales adlı Zoom monitorinq sistemi, şəxsin nə qədər məşğul olduğunu izləmək üçün istifadəçilərin danışıq vaxtı nisbətini, cavab vaxtının gecikməsini və tez-tez dinamik dəyişikliklərini yoxlayır. Böyütmə bu datadan sıfırdan 100-ə qədər xallar təyin etmək üçün istifadə edəcək, daha yüksək xallar daha yüksək əlaqə və ya əhval-ruhiyyəni göstərir.

İnsan haqları qrupları iddia edir ki, proqram hər kəsin ünsiyyət üçün eyni üz ifadələrindən, səs nümunələrindən və bədən dilindən istifadə etdiyini fərz etməklə, əlilliyi olan və ya müəyyən etnik mənsubiyyətə malik insanlara qarşı ayrı-seçkilik yarada bilər. Qruplar həmçinin proqram təminatının məlumat təhlükəsizliyi riski ola biləcəyini təklif edirlər.

Image
Image

"Dərindən fərdi məlumatların toplanması bu texnologiyanı tətbiq edən hər hansı qurumu hökumət orqanlarını və zərərli hakerləri təqib etmək üçün hədəfə çevirə bilər".

Nyu York Universitetinin kompüter elmləri və mühəndisliyi professoru Julia Stoyanoviç Lifewire-a e-poçt müsahibəsində emosiyaların aşkarlanmasının arxasındakı iddialara şübhə ilə yanaşdığını söylədi.

"Mən belə bir texnologiyanın necə işlədiyini görmürəm - insanların emosional ifadəsi çox fərdi, mədəni cəhətdən çox asılıdır və çox kontekstdən asılıdır" dedi Stoyanoviç."Amma, bəlkə də daha da əhəmiyyətlisi, mən başa düşmürəm ki, biz bu vasitələrin işləməsini niyə istəyirik. Başqa sözlə, əgər onlar yaxşı işləsəydilər, daha da problemlə üzləşərdik. Amma bəlkə də risklər haqqında düşünmədən əvvəl, biz bunu etməliyik. soruşun-belə texnologiyanın potensial faydaları nələrdir?"

Zoom emosiya aşkarlayan proqram təminatından istifadə edən yeganə şirkət deyil. Məxfilik və təhlükəsizlik üzrə kons altinq şirkəti olan Kuma MMC-nin məxfilik üzrə baş direktoru Teo Uills Lifewire-a e-poçt vasitəsilə bildirib ki, istifadəçinin diqqət edib-etmədiyini qiymətləndirmək üçün müsahibələr zamanı duyğuları aşkar etmək üçün proqramdan istifadə edilir. O, həmçinin sürücülərin yuxulu olub-olmamasına nəzarət etmək üçün nəqliyyat sənayesində, marağını ölçmək və tövsiyələri uyğunlaşdırmaq üçün video platformalarda və müəyyən tədris metodunun cəlbedici olub olmadığını müəyyən etmək üçün təhsil dərsliklərində sınaqdan keçirilir.

Wills iddia etdi ki, emosiyaların monitorinqi proqramı ətrafında mübahisə məxfilikdən daha çox məlumat etikasına aid bir sualdır. O dedi ki, bu, sistemin təxminlərə əsaslanaraq real qərarlar qəbul etməsi ilə bağlıdır.

"Bu texnologiya ilə siz indi üzümdə xüsusi bir ifadənin olmasının səbəbini güman edirsiniz, lakin ifadənin arxasındakı təkan sosial və ya mədəni tərbiyə, ailə davranışları, keçmiş təcrübələr və ya əsəbilik kimi şeylərə görə çox dəyişir. hazırda "dedi Wills. "Alqoritmin fərziyyə əsasında qurulması mahiyyət etibarilə qüsurlu və potensial olaraq ayrı-seçkilik yaradır. Alqoritmlərin əsaslandığı populyasiyada bir çox populyasiyalar təmsil olunmur və bundan istifadə edilməzdən əvvəl müvafiq təqdimat prioritetləşdirilməlidir."

Praktik Mülahizələr

Emosiyaların izlənilməsi proqramının qaldırdığı problemlər nəzəri olduğu kimi praktiki də ola bilər. Münasibətlərin intellektini təmin edən süni intellektlə idarə olunan Ferret.ai tətbiqinin həmtəsisçisi Matt Heisie Lifewire-a elektron poçtla bildirib ki, istifadəçilər üzlərin analizinin harada aparıldığını və hansı məlumatların saxlandığını soruşmalıdırlar. Tədqiqat zəng qeydləri üzərində aparılır, buludda və ya yerli cihazda işlənir?

Həmçinin, Heisie soruşdu ki, alqoritmin öyrəndiyi kimi, o, insanın üzü və ya hərəkətləri haqqında alqoritmdən potensial olaraq ayrıla bilən və kiminsə biometrikasını yenidən yaratmaq üçün istifadə edilə bilən hansı məlumatları toplayır? Şirkət alqoritmin öyrəndiklərini yoxlamaq və ya təsdiqləmək üçün snapşotları saxlayır və istifadəçiyə bu yeni törəmə məlumat və ya saxlanılan şəkillərin onların zənglərindən toplanması barədə məlumat verilirmi?

"Bunların hamısı bir çox şirkətin həll etdiyi problemlərdir, lakin bunu düzgün etmədikləri ortaya çıxanda qalmaqalla sarsılan şirkətlər də var" dedi Heisie. "Facebook, istifadəçi məxfiliyi ilə bağlı narahatlıqlara görə üz tanıma platformasını geri götürən şirkətin ən əhəmiyyətli hadisəsidir. Ana şirkət Meta indi biometrik məlumatlarla bağlı məxfilik qanunlarına görə İllinoys və Texas kimi bəzi yurisdiksiyalarda İnstaqramdan AR xüsusiyyətlərini çəkir."

Tövsiyə: