Əsas Çıxarışlar
- Yeni bir məqalə iddia edir ki, süni intellekt hansı tədqiqat layihələrinin digərlərindən daha çox tənzimləmə tələb oluna biləcəyini müəyyən edə bilər.
- Bu, hansı növ AI-nin təhlükəli ola biləcəyini kəşf etmək üçün artan səyin bir hissəsidir.
-
Bir ekspert deyir ki, süni intellektin əsl təhlükəsi onun insanları lal edə bilməsidir.
Süni intellekt (AI) bir çox faydalar təklif edir, eyni zamanda bəzi potensial təhlükələr də təqdim edir. İndi isə tədqiqatçılar kompüterləşdirilmiş yaradıcılıqlarına diqqət yetirmək üçün üsul təklif ediblər.
Beynəlxalq bir komanda yeni məqaləsində deyir ki, süni intellekt hansı növ tədqiqat layihələrinin digərlərinə nisbətən daha çox tənzimləmə tələb oluna biləcəyini müəyyən edə bilər. Alimlər biologiya və riyaziyyatdan anlayışları birləşdirən və hansı növ AI-nin təhlükəli ola biləcəyini kəşf etmək üçün artan səylərin bir hissəsi olan modeldən istifadə ediblər.
"Əlbəttə ki, belə qərara gəlsək, süni intellektdən "elmi-fantastik" təhlükəli istifadə yarana bilər […], süni intellektni təhlükəli edən AI-nin özü deyil, [ondan necə istifadə etdiyimizdir], " Thierry Rayna, Fransadakı École Polytechnique-nin Dəyişiklik üçün Texnologiyanın sədri, Lifewire-a e-poçt müsahibəsində bildirib. "AI-nin tətbiqi ya səriştənin artırılması (məsələn, insanın/işçinin bacarıq və biliklərinin aktuallığını gücləndirir) və ya səriştənin məhv edilməsi ola bilər, yəni süni intellekt mövcud bacarıq və biliyi daha az faydalı və ya köhnəlmiş edir."
Tapların Saxlanması
Son məqalənin müəllifləri bir yazıda hipotetik süni intellekt yarışlarını simulyasiya etmək üçün bir model hazırladıqlarını yazdılar. Onlar real dünyadakı süni intellekt yarışlarının necə nəticələnəcəyini təxmin etməyə çalışmaq üçün simulyasiyanı yüzlərlə dəfə həyata keçirdilər.
"Xüsusilə vacib tapdığımız dəyişən yarışın "uzunluğu" idi - simulyasiya edilmiş yarışlarımızın öz məqsədlərinə (funksional süni intellekt məhsulu) çatması üçün sərf etdiyi vaxt", - alimlər yazdı. "Süni intellekt yarışları öz məqsədlərinə tez çatdıqda, təhlükəsizlik tədbirlərinə həmişə məhəl qoymamaq üçün kodlaşdırdığımız rəqiblərin həmişə qalib gəldiyini gördük."
Bunun əksinə olaraq, tədqiqatçılar uzunmüddətli süni intellekt layihələrinin o qədər də təhlükəli olmadığını aşkar etdilər, çünki qaliblər həmişə təhlükəsizliyi gözardı edənlər deyildi. "Bu tapıntıları nəzərə alaraq, tənzimləyicilər üçün gözlənilən vaxt cədvəllərinə əsaslanaraq fərqli tənzimləmələr tətbiq edərək, fərqli süni intellekt yarışlarının nə qədər davam edəcəyini müəyyən etmək vacib olacaq" dedilər. "Bizim tapıntılar göstərir ki, sprintlərdən marafonlara qədər bütün süni intellekt yarışları üçün bir qayda idealdan uzaq bəzi nəticələrə gətirib çıxaracaq."
Süni intellekt üzrə məsləhətlər verən Coda Strategy şirkətinin idarəedici direktoru David Zhao Lifewire ilə e-poçt müsahibəsində təhlükəli süni intellektin müəyyən edilməsinin çətin ola biləcəyini söylədi. Çətinliklər süni intellektə müasir yanaşmaların dərin öyrənmə yanaşması olmasındadır.
"Biz bilirik ki, dərin öyrənmə şəkillərin aşkarlanması və ya nitqin tanınması kimi çoxsaylı istifadə hallarında daha yaxşı nəticələr verir", - Zhao bildirib. "Lakin insanların dərin öyrənmə alqoritminin necə işlədiyini və onun məhsulu necə yaratdığını anlamaq mümkün deyil. Buna görə də yaxşı nəticələr verən süni intellektin təhlükəli olub-olmadığını söyləmək çətindir, çünki insanların nə baş verdiyini anlaması mümkün deyil."
Proqram təminatı, pis aktyorlar tərəfindən istifadə edilə bilən və ya yanlış nəticələr yarada bilən zəifliklərə malik olan kritik sistemlərdə istifadə edildikdə "təhlükəli" ola bilər, - MixMode AI firmasının strategiya direktoru Matt Shea e-poçt vasitəsilə bildirib. O, əlavə etdi ki, təhlükəli süni intellekt nəticələrin düzgün təsnif edilməməsi, məlumat itkisi, iqtisadi təsir və ya fiziki ziyanla da nəticələnə bilər.
"Ənənəvi proqram təminatı ilə tərtibatçılar mənbə koduna baxaraq zəifliyi necə qoşmaq və ya səhvi düzəltmək üçün bir şəxs tərəfindən araşdırıla bilən alqoritmləri kodlaşdırırlar" dedi Şi."Amma süni intellektlə məntiqin böyük bir hissəsi verilənlərin özündən yaradılır, neyron şəbəkələri və s. kimi məlumat strukturlarına kodlanır. Bu, zəiflikləri tapmaq və düzəltmək üçün araşdırıla bilməyən "qara qutular" olan sistemlərlə nəticələnir. normal proqram kimi."
Təhlükələr Qarşıda?
Süni intellekt "Terminator" kimi filmlərdə bəşəriyyəti məhv etmək niyyətində olan şər qüvvə kimi təsvir edilsə də, ekspertlərin fikrincə, real təhlükələr daha prozaik ola bilər. Məsələn, Rayna süni intellektin bizi axmaq edə biləcəyini təklif edir.
“Bu, insanları beyinlərini məşq etməkdən və təcrübə inkişaf etdirməkdən məhrum edə bilər” dedi. “Vaxtınızın çox hissəsini startap proqramlarını oxumağa sərf etmirsinizsə, necə vençur kapitalı üzrə mütəxəssis ola bilərsiniz? Daha da pisi, süni intellekt “qara qutu”dur və çox az izah olunur. Müəyyən bir AI qərarının niyə qəbul edildiyini bilməmək, ondan öyrənmək üçün çox az şey olacağı deməkdir, necə ki, Segway-də stadionu gəzərək mütəxəssis qaçışçı ola bilməzsiniz.”
Yaxşı nəticələr verən süni intellektin təhlükəli olub-olmadığını söyləmək çətindir, çünki insanların nə baş verdiyini anlaması mümkün deyil.
Ola bilsin ki, süni intellektdən gələn ən təcili təhlükə onun qərəzli nəticələr verə bilmə ehtimalıdır, AI-nin hüquqi nəticələri haqqında yazan hüquqşünas Lyle Solomon e-poçt müsahibəsində bildirib.
"AI cəmiyyətdəki ayrı-seçkiliyi dərinləşdirməyə kömək edə bilər. Süni intellekt əsasən insanlardan toplanan məlumatlara əsaslanır", - Süleyman əlavə edib. "[Ancaq] geniş məlumatlara baxmayaraq, o, minimal alt qrupları ehtiva edir və hər kəsin düşündüklərini ehtiva etmir. Beləliklə, şərhlərdən, ictimai mesajlardan, rəylərdən və s.-dən toplanmış məlumatlar, özünəməxsus qərəzlərlə AI-ni ayrı-seçkiliyi və nifrəti gücləndirəcək."