Facebook-un Deepfake Texnologiyası Bizi xilas etməyəcək, Ekspertlər

Mündəricat:

Facebook-un Deepfake Texnologiyası Bizi xilas etməyəcək, Ekspertlər
Facebook-un Deepfake Texnologiyası Bizi xilas etməyəcək, Ekspertlər
Anonim

Əsas Çıxarışlar

  • Deepfakes hazırlamaq asanlaşdıqca, onları aşkar etməyin yeni və təkmilləşdirilmiş üsulları prioritet oldu.
  • Facebook-un dərin saxta aşkarlama texnologiyası videonun dərin saxta olub-olmadığını aşkar etmək üçün tərs maşın öyrənməsindən istifadə edir.
  • Mütəxəssislər deyirlər ki, blokçeyn texnologiyasından istifadə videonun real olub-olmadığını öyrənmək üçün ən yaxşı yoldur, çünki metod kontekst məlumatlarına əsaslanır.
Image
Image

Facebook dərin saxtakarlıqla mübarizə aparmaq üçün maşın öyrənmə modelinə əmindir, lakin ekspertlər deyirlər ki, maşın öyrənməsi tək başına bizi dərin saxtakarlıqlara aldanmaqdan xilas etməyəcək.

Facebook, Microsoft və Google kimi şirkətlərin hamısı internetdə və sosial şəbəkələrdə yayılan dərin saxtakarlıqlarla mübarizə aparır. Metodlar fərqli olsa da, bu yalan videoları aşkar etmək üçün bir potensial ağılsız üsul var: blokçeynlər.

“[Blokçeynlər] sizə dərin saxtakarlığı mənim görə biləcəyim ən yaxşı doğrulama forması olan şəkildə təsdiqləmək üçün çoxlu potensial verir,” Stephen Wolfram, Wolfram Research-in təsisçisi və baş direktoru və A New Kind of the New Kind of Science, Lifewire-a telefonla bildirib.

Facebook-un Deepfake-Spotting Texnologiyası

Deepfake texnologiyası son bir neçə ildə sürətlə inkişaf edib. Aldadıcı videolar kiminsə üzünü başqasının bədəninə qoymaq, fon şəraitini dəyişmək, saxta dodaq sinxronizasiyası və s. kimi şeyləri etmək üçün maşın öyrənmə üsullarından istifadə edir. Onlar zərərsiz parodiyalardan tutmuş məşhurlara və ya ictimai xadimlərə etmədikləri bir şeyi deməyə və ya etməyə məcbur etməyə qədər dəyişir.

Mütəxəssislər deyirlər ki, texnologiya sürətlə inkişaf edir və texnologiya daha çox əlçatan və daha innovativ olduqca dərin saxtakarlıqlar daha inandırıcı (və yaradılması daha asan) olacaq.

Image
Image

Facebook bu yaxınlarda Miçiqan Dövlət Universiteti ilə əməkdaşlıq edərək dərin saxta aşkarlama texnologiyası haqqında daha çox məlumat verdi. Sosial şəbəkə deyir ki, o, tək süni intellekt tərəfindən yaradılan təsvirdən onun istehsalında istifadə olunan generativ modelə qədər tərs mühəndisliyə əsaslanır.

Facebook ilə işləyən tədqiqatçı alimlər bildiriblər ki, bu metod dərin saxtakarlıq yaratmaq üçün istifadə edilən AI modelinin arxasındakı unikal nümunələrin aşkarlanmasına əsaslanır.

“Şəklin atributunu açıq toplu tanınmaya ümumiləşdirməklə biz dərin saxtakarlıq yaratmaq üçün istifadə olunan generativ model haqqında daha çox məlumat əldə edə bilərik ki, bu da onun əvvəllər görülmədiyini qəbul etməkdən kənara çıxır. Deepfake kolleksiyasının nümunələri arasında oxşarlıqları izləməklə, bir sıra şəkillərin bir mənbədən yaranıb-yaramadığını da deyə bilərik” deyə araşdırma alimləri Xi Yin və Tan Hassner Facebook-un bloq yazısında dərin saxtakarlığı aşkarlama metodu haqqında yazdılar.

Image
Image

Wolfram deyir ki, qabaqcıl AI modelini (dərin saxta) tapmaq üçün maşın öyrənməsindən istifadə etməyin mənası var. Bununla belə, texnologiyanı aldatmaq üçün həmişə yer var.

“Mən [dərin saxtakarlığı aşkar etmək üçün] layiqli maşın öyrənmə yolu olduğuna heç də təəccüblənmirəm” dedi Wolfram. “Yeganə sual budur ki, kifayət qədər səy göstərsən, onu aldada bilərsənmi? Əminəm ki, bacararsan.”

Deepfakes ilə Mübarizə Fərqli Bir Yol

Əvəzində Wolfram bildirib ki, o, blockchain-dən istifadənin müəyyən dərin saxtakarlıq növlərini dəqiq müəyyən etmək üçün ən yaxşı seçim olacağına inanır. Maşın öyrənməsi üzərində blokçeyndən istifadə ilə bağlı fikirləri 2019-cu ilə gedib çıxır və o, son nəticədə blockchain yanaşmasının dərin saxta problemimizə daha dəqiq həllini təmin edə biləcəyini söylədi.

“Mən gözləyərdim ki, şəkil və video izləyiciləri blokçeynlərə (və “məlumatların üçbucaqlı hesablamalarına”) qarşı müntəzəm olaraq nəzarət edə bilər, bir az da veb brauzerlərin təhlükəsizlik sertifikatlarını yoxlaması kimi,” Wolfram Scientific American-da dərc olunan məqaləsində yazır.

Blokçeynlər məlumatları daha sonra xronoloji ardıcıllıqla bir-birinə zəncirlənmiş bloklarda saxladığından və mərkəzləşdirilməmiş blokçeynlər dəyişməz olduğundan daxil edilmiş məlumatlar geri dönməzdir.

Yeganə sual budur ki, kifayət qədər səy göstərsən, onu aldada bilərsən? Əminəm ki, edə bilərsiniz.

Volfram izah etdi ki, videonu blokçeynə yerləşdirməklə siz onun çəkildiyi vaxtı, yerini və onun hər hansı bir şəkildə dəyişdirilib-deyişilmədiyini söyləməyə imkan verən digər kontekstual məlumatları görə biləcəksiniz.

“Ümumiyyətlə, şəkil və ya videonu kontekstləşdirən metadata nə qədər çox olarsa, bunu deyə bilmə ehtimalınız bir o qədər çox olar” dedi. “Blockchain-də vaxtı saxtalaşdıra bilməzsiniz.”

Lakin Wolfram dedi ki, istifadə olunan metod - istər maşın öyrənməsi, istərsə də blokçeyndən istifadə - qorumağa çalışdığınız dərin saxtakarlığın növündən (yəni, Kim Kardaşyanın axmaq bir şey dediyi videodan və ya bir videoçarxdan) asılıdır. siyasətçi bəyanat və ya təklif edir).

“Blokçeyn yanaşması müəyyən növ dərin saxtakarlıqlardan qoruyur, necə ki, maşın öyrənməsi təsvirin işlənməsi müəyyən növ dərin saxtakarlıqlardan qoruyur” dedi.

Yəqin ki, qarşıdan gələn dərin saxta daşqınla mübarizə apararkən hamımız üçün ayıq-sayıq olmaq lazımdır.

Tövsiyə: