Kova Su Robotais: Draudžiama Neleisti

Turinys:

Kova Su Robotais: Draudžiama Neleisti
Kova Su Robotais: Draudžiama Neleisti

Video: Kova Su Robotais: Draudžiama Neleisti

Video: Kova Su Robotais: Draudžiama Neleisti
Video: Robotų miestas 2024, Gegužė
Anonim

Ekspertai susitiko Ženevoje, tačiau susitarti nepavyko: JAV ir Rusija blokavo visus darbus. Galbūt tai yra vienintelis laikas, kai hegemonai veikia taip harmoningai.

Kova su robotais: draudžiama neleisti
Kova su robotais: draudžiama neleisti

Ženevoje baigėsi nežmoniškų ginklų konvencijos formos ekspertų susitikimai, siekiant išspręsti vadinamųjų kovinių robotų - autonominių ginklų, kurie naudoja dirbtinį intelektą taikiniams nugalėti, likimą. Tačiau susitarti nepavyko. Jungtinės Valstijos, Rusija, Pietų Korėja, Izraelis ir Australija buvo tarp mažumų tautų, kurioms pavyko užkirsti kelią visiškam robotų žudikų uždraudimui.

Taigi, nors pasaulyje vis dar nėra veikiančio autonominio ginklo, technologija išlieka, galima sakyti, humaniška - ją galima tobulinti ir tirti. Įdomu tai, kad pagal Stokholmo taikos tyrimų instituto (SIPRI) duomenis didžiausios ginklų eksportuotojos yra JAV ir Rusija. Pietų Korėja, Izraelis ir Australija taip pat neatsilieka šiame reitinge - jos yra tarp 20 geriausių rinkos žaidėjų.

Ir nors Kinija (penktoji ginklų eksportuotoja pasaulyje, nuolatinė JT Saugumo Tarybos narė pasisako už kovinių robotų uždraudimą, jai susitikimų metu nepavyko pakoreguoti svarstyklių savo kryptimi. Šiandien 26 šalys atvirai palaiko draudimas naudoti dirbtinį intelektą kare. Kiti vengia aiškios pozicijos) Prancūzija ir Vokietija (trečioji ir ketvirtoji ginklų eksportuotojos) siūlo pasirašyti dokumentą, kuris įtvirtintų žmogaus pirmenybę prieš dirbtinį intelektą, tačiau jie labiau tikėtina tų, kurie nori sukurti autonomines kovos mašinas.

"Tikrai apmaudu, kad nedidelė karinių milžinų grupė gali sulaikyti daugumos valią", - Ženevos susitikimų rezultatus komentavo Mary Verhem, kampanijos "Killer Robots Stop" koordinatorė.

Iš tiesų situacija atrodo kaip ginkluotų monopolinių magnatų sąmokslas, turint omenyje, kad JAV ir Rusija paprastai negali pasiekti bent kažkokio kompromiso svarbiais klausimais. Paimkime sirų kalbą: Vašingtonas ir Maskva abipusiai užblokavo viena kitos rezoliucijas po to, kai šį pavasarį Sirijoje panaudojo cheminius ginklus. Asfiksiją sukeliančios dujos ir kitos toksiškos medžiagos kariniams tikslams, beje, anksčiau buvo uždraustos nežmoniškų ginklų konvencija.

Kitas susitikimas dėl robotų žudikų likimo vyks Ženevoje lapkričio mėnesį.

Kodėl jie nori uždrausti autonominius ginklus

Robotų karo draudimo šalininkai tvirtina, kad mūšio laukas nėra dirbtinio intelekto vieta. Jų nuomone, tokios technologijos kelia didžiulę grėsmę. Bent jau šiandien neaišku, kaip mašina skirs kovotojus (tuos, kurie tiesiogiai dalyvauja karo veiksmuose) nuo ne kovotojų (kariuomenės tarnybos personalo, galinčio naudoti ginklus tik savigynai) ir apskritai civilių. Yra tikimybė, kad darbas nužudys sužeistuosius ir tuos, kurie pasiduoda, o tai draudžia dabartinės karo taisyklės.

Kas trukdo darbui nutraukti visas konflikto šalis, net tokių ginklų savininkus? Dirbtinio intelekto elementai jau sėkmingai naudojami karinėje įrangoje, raketose; robotai traukia žvalgybai, tačiau galutinis žodis vis tiek tenka žmonėms. Autonominiai ginklai nepaklus vadų įsakymams - todėl jie yra autonomiški. Štai kodėl įvairių šalių kariniai generolai skeptiškai vertina mašinų įvedimą į personalo gretas.

Ir dar vienas atviras klausimas yra tarptautinis terorizmas. Autonominė ginklų technologija gali patekti į netinkamas rankas, ir galiausiai ją galima nulaužti. Prieš metus Rusijos prezidentas Vladimiras Putinas sakė, kad pasaulio valdovas taps tas, kuris taps dirbtinio intelekto kūrimo lyderiu. Autonominių ginklų atveju tas, kuris gaus prieigą prie tokių technologijų, taps pasaulio valdovu. Tam iš tikrųjų reikia tik kompiuterio ir gudruolio, kuris praeis per apsaugos sistemas. Beje, į Pentagoną buvo įsilaužta ne kartą. Todėl niekas negali garantuoti, kad autonominiai ginklai išliks neliečiami.

Taip pat neaišku, kas bus teisiškai atsakingas, jei karo nusikaltimas bus įvykdytas dėl autonominės ginklų sistemos veikimo. „Inžinierius, programuotojas, gamintojas ar vadas, kuris naudojo ginklą? Jei atsakomybės negalima apibrėžti taip, kaip reikalauja tarptautinė humanitarinė teisė, ar tokių sistemų diegimas gali būti pripažįstamas teisiniu ar etiniu požiūriu? “Pažymi Tarptautinis Raudonojo Kryžiaus komitetas.

Įdomu tai, kad mokslininkai taip pat pasisakė už kovinių robotų uždraudimą. Šių metų liepą daugiau nei du tūkstančiai mokslininkų, ypač „Tesla“ir „SpaceX“kūrėjas Elonas Muskas bei „DeepMind“įkūrėjai, pasirašė dokumentą, kad jie nekurs mirtinų autonominių ginklų. „Google“padarė tą patį. Technikos milžinė atsisakė Pentagono „Maven“projekto darbų. 2017 m. Nemažai mokslininkų jau paragino JT uždrausti kurti robotus žudikus.

Beje, dirbtinio intelekto kare klausimas Jungtinių Tautų darbotvarkėje pasirodė 2013 m. Pabaigoje, tačiau praktiškai nuo to laiko niekas nepasikeitė. Tik šiais metais prasidėjo ekspertų susitikimai pagal nežmoniškų ginklų konvenciją. Tai yra, prireikė daugiau nei ketverių metų, kol pasiekėme daugiau ar mažiau praktišką plotmę.

Kodėl jie nenori uždrausti autonominių ginklų

Kad ir kaip tai skambėtų, ginklų lenktynės yra pagrindinė priežastis, kodėl jie nenori uždrausti robotų žudikų. Putinas teisus: kas pirmas gaus autonominius ginklus, tas dominuos pasaulyje. Oficialiai ši priežastis yra išsakyta.

Pagrindinis draudimo priešininkų argumentas yra neįmanoma atskirti civilinio dirbtinio intelekto nuo kariuomenės. Kaip ir mes, nedraudsime virtuvinių peilių vien todėl, kad teroristai gali jais naudotis. Iš tikrųjų praktiškai neįmanoma atskirti civilinio dirbtinio intelekto kūrimo nuo kariuomenės. Bet dabar mes kalbame apie šio ginklo draudimą, kuris galės savarankiškai nustatyti ir atakuoti taikinius. Tai gali būti „Maven“projektas, prie kurio JAV gynybos departamentas dirba kartu su Boozu Allenu Hamiltonu („Google“atsisakė sutarties).

„Maven“kūrėjai nori išmokyti bepiločius aparatus analizuoti vaizdus, ypač iš palydovų, ir, galbūt, nustatyti atakas. Pentagonas pradėjo dirbti su projektu dar 2017 m. Balandžio mėn. Ir tikėjosi, kad pirmuosius darbo algoritmus gaus iki metų pabaigos. Tačiau dėl „Google“darbuotojų demaršo plėtra buvo atidėta. Nuo šių metų birželio, pasak „Gizmodo“, sistema galėjo atskirti elementarius objektus - automobilius, žmones, tačiau sunkiose situacijose pasirodė esanti visiškai nereikšminga. Jei vis dėlto JT lygiu bus priimtas autonominių ginklų draudimas, projektas turės būti panaikintas, o Pentagonas teigia, kad jų plėtra gali išgelbėti gyvybes, nes jį galima užprogramuoti veikti tiksliau ir patikimiau, palyginti su žmonėmis.

"Jūs turite suprasti, kad mes kalbame apie technologijas, kad ji neturi pavyzdžių, kurie galėtų veikti. Tokių sistemų idėja vis dar yra labai paviršutiniška", - pažymėjo susitikimas Ženevoje, Rusijos užsienio reikalų ministerijoje, išvakarėse. - Mūsų nuomone, tarptautinė teisė, ypač humanitarinis sektorius, gali būti taikoma autonominiams ginklams. Jų nereikia modernizuoti ar pritaikyti sistemoms, kurių dar nėra “.

Na, o dar viena reali, bet neišreikšta priežastis yra pinigai. Manoma, kad karinio dirbtinio intelekto technologijų rinka siekia daugiau nei šešis milijardus dolerių. Tačiau iki 2025 m. Šis skaičius padidės trigubai - iki beveik 19 mlrd., Teigia Amerikos bendrovės „MarketsandMarkets“analitikai. Didžiausiems ginklų eksportuotojams tai yra gera motyvacija blokuoti bet kokius robotų žudikų kūrimo apribojimus.

Pažangos sustabdyti negalima

Autonominių ginklų draudimo šalininkai pastebi, kad technologijos vystosi labai greitai ir dirbtinis intelektas ilgainiui taps ginklu - laiko klausimas. Jų žodžiuose yra logika. Dirbtinis intelektas yra neatskiriama ketvirtosios mokslo ir technologijos revoliucijos, kuri tęsiasi ir dabar, dalis. Reikėtų nepamiršti, kad techninė pažanga vienaip ar kitaip yra susijusi su karinėmis operacijomis. Trečioji mokslo ir technologinė revoliucija truko iki XX amžiaus 50-ųjų vidurio, tai yra, jos viršūnė nukrito į Antrojo pasaulinio karo laikotarpį.

1949 m. Ženeva priėmė Konvenciją dėl civilių apsaugos karo metu. Pokariu jie taip pat papildė 1907 m. IV Hagos konvenciją, kuri nustatė karo vedimo taisykles. Tai yra, Antrojo pasaulinio karo siaubas tapo šio proceso katalizatoriumi. Taigi, žmogaus teisių gynėjai nenori laukti Trečiojo pasaulinio karo, kad apsaugotų žmoniją nuo autonominių ginklų. Būtent todėl dabar reikia nuspręsti dėl robotų žudikų likimo.

Pasak „Human Rights Watch“ekspertų, kovinių robotų naudojimas prieštarauja Martenso deklaracijai - 1899 m. Hagos karo įstatymų ir papročių konvencijos preambulei. Kitaip tariant, robotai žudikai pažeidžia žmonijos dėsnius ir visuomenės sąmonės reikalavimus (pozicija buvo patvirtinta IV Hagos konvencijoje).

„Turime bendradarbiauti, kad prevenciškai uždraustume tokias ginklų sistemas, kol jos nepasklis po pasaulį“, - sakė „Human Rights Watch“ginklų skyriaus vyresnioji mokslo darbuotoja Bonnie Doherty.

Na, šįkart neveikė uždrausti robotus žudikus. Spėjama, kad lapkričio mėnesio susitikimai taip pat bus bevaisiai. Tiesa, beveik visos šalys sutinka - negalima leisti, kad technologija plūstų gravitacijos būdu, o koviniams robotams reikalingas toks stabdymo kranas. Tačiau vis dar nėra aišku, ar žmonija turės laiko ją ištraukti, kai atsiras poreikis.