Aleksanın ölü qohumlarını təqlid etmək bacarığı indiyə qədərki ən qorxunc şey ola bilər

Mündəricat:

Aleksanın ölü qohumlarını təqlid etmək bacarığı indiyə qədərki ən qorxunc şey ola bilər
Aleksanın ölü qohumlarını təqlid etmək bacarığı indiyə qədərki ən qorxunc şey ola bilər
Anonim

Əsas Çıxarışlar

  • Amazon-un Alexa səs köməkçisi bir dəqiqəlik audio ilə səsi kopyalaya bilər.
  • Alexa-dan ölən valideynin səsi ilə hekayə oxumasını istəyə bilərsiniz.
  • Bu, dərin saxtakarlıqla eyni fikirdir, yalnız yaxşılıq üçün istifadə olunur.
Image
Image

Amazon Alexa-nın ən son hiyləsi ölü sevilən birinin səsini təqlid etməyi öyrənməkdir ki, onlar sizinlə məzarın o tayından danışa bilsinlər.

Alexa səsi inandırıcı şəkildə təqlid etmək üçün sadəcə bir dəqiqə danışıq səsinə ehtiyac duyur. Amazon bunu sizi yaxınlarınızla əlaqə saxlaya biləcək rahatlaşdırıcı xüsusiyyət kimi təqdim edir, lakin bu, həm də olduqca ürpertici təcrübə ola bilər. Bu, bizi aldatmaq üçün kifayət qədər yaxşı olan dərin saxta audio hazırlamağın nə qədər asan olduğunu göstərir, hətta səs çox yaxşı bildiyimiz səs olsa belə.

"Amazon, Alexa'nın tezliklə ölən qohumlarının səsini öyrənə və sonra tezliklə istifadə edə biləcəyini elan edərək, qətiliklə olduqca unikal və qəribə bir əraziyə daxil oldu" dedi. Lifewire e-poçt vasitəsilə. "Bəzi insanlar üçün bu, heç də ürpertici deyil. Əslində, bu, olduqca təsirli ola bilər."

Maşındakı Kabus

İllik re:MARS konfransının bir hissəsi olaraq Amazon qısa bir videoda bu xüsusiyyəti nümayiş etdirir. Orada bir uşaq Alexadan soruşur ki, nənə ona hər bir uşağın sevimli ictimai iş olan "Oz sehrbazı"nı oxumağa davam edə bilərmi? Və olduqca təsirli bir an. Nənə oxumağa başlayanda insan duyğularını hiss etməmək çətindir.

"İnsanlar, xüsusən də Qərb mədəniyyətində ölümlə mübarizə aparır. Əsrlər boyu biz ölüm maskalarından tutmuş saç düzümünə, köhnə fotoşəkillərə, köhnə filmlərə baxmağa kimi ölüləri yad etməyin yollarını tapmağa çalışmışıq, " Andrew Selepak Florida Universitetinin sosial media professoru, e-poçt vasitəsilə Lifewire-ə bildirib. "Deepfakes mərhum sevilən birinin yeni ölüm maskası yaratmaq üçün ən son texnologiyadan istifadə edir. Ancaq insanın baxışından asılı olaraq, bu, ürpertici, yoxsa sevdiyin birini öldükdən sonra xatırlamaq və ondan yapışmaq üçün bir yoldur?"

Ancaq xatirə mori həm təsəlliverici, həm də qorxuducu ola bilər. Ailə üzvünün dostu öldü, lakin siz hələ də onların danışdığını eşidə bilərsiniz. Alexa'nın qəribə və bəzən dəhşətli davranış tarixçəsi olması kömək etmir. 2018-ci ildə NYT-nin köşə yazarı Fərhad Manjoo yatağa uzanarkən onun Amazon Echo "qorxu filmi yuxusunda qışqıran uşaq kimi ağlamağa başladı"

Bir müddət sonra Amazon Alexa-nın bəzən yüksək səslə güldüyünü etiraf etdi, bu, yeniyetmələr və zirzəmilərlə birlikdə 101-ci qorxu filmidir.

Alexa nənənin səsi ilə eyni fəndləri çəksəydi, necə hiss edəcəyinizi düşünmək olar.

Deep Fake

Alexa-nın səsi təqlid etməyi öyrənməsinin asanlığı bizi səs klonlamasının daha çirkin istifadələrinə aparır: dərin saxtakarlıqlar.

Image
Image

"Deepfake audio az başa düşülsə və az bilinsə də, yeni deyil. Texnologiya illərdir ki, insanın səsini süni intellektlə yenidən yaratmaq və şəxsdən nisbətən az real audio istifadə edərək dərindən öyrənmək üçün mövcuddur, " Selepak deyir. "Belə texnologiya həm də təhlükəli və dağıdıcı ola bilər. Narahat olan şəxs ölü keçmiş sevgilisinin və ya sevgilisinin səsini yenidən yarada bilər və yeni audiodan nifrət və incidəcək sözlər söyləmək üçün istifadə edə bilər."

Bu, yalnız Alexa kontekstindədir. Dərin saxta audio, məsələn, tanınmış siyasətçilərin inanmadıqları şeylərə inandıqlarına insanları inandıraraq, bundan çox kənara çıxa bilər. Ancaq digər tərəfdən, bu dərin saxtakarlıqlara - bəlkə də bu Alexa səsləri şəklində - nə qədər çox öyrəşsək, daha pis saxtakarlıqlara daha çox şübhə ilə yanaşacağıq. Yenə də, Facebook-da yalan yaymağın nə qədər asan olduğunu nəzərə alsaq, bəlkə də yox.

Amazon bu xüsusiyyətin Alexa-ya gəlib-gəlmədiyini və ya sadəcə bir texnologiya nümayişi olduğunu söyləməyib. Mən bir növ ümid edirəm. Bu cür humanist tərzdə istifadə edildikdə texnologiya ən yaxşı vəziyyətdədir və asan reaksiya onu ürpertici adlandırmaq olsa da, Selepakın dediyi kimi, həqiqətən köhnə videolara baxmaqdan və ya saxlanılan səsli mesajları dinləməkdən o qədər də fərqlənmir. tənbəl ssenarili televiziya verilişindəki personaj kimi.

Və əgər dərin saxtakarlıq texnologiyası hazırdırsa, niyə ondan özümüzü rahatlaşdırmaq üçün istifadə etməyək?

Tövsiyə: