Ինչպես կանխարգելել ԱԲ միջուկային արմագեդոնը
IG_Royal via Getty Images
Սա այլևս գիտական ֆանտաստիկա չէ: Միջուկային զենքի համակարգերում արհեստական բանականության կիրառման մրցավազքը շարունակվում է — զարգացում, որը կարող է ավելի հավանական դարձնել միջուկային պատերազմը: Աշխարհի կառավարությունների հետ աշխատելով՝ ապահովելու ԱԲ-ի անվտանգ զարգացումը և կիրառումը, հնարավորություն կա մեղմելու այս վտանգը: Բայց եթե համաշխարհային առաջնորդները ցանկանում են այն տիրել, նրանք նախ պետք է գիտակցեն, թե որքան լուրջ է սպառնալիքը: Այս մասին գրում է հոդվածի հեղինակ Մելիսա Պարկեն(Melissa Parke) project-syndicate-ում:
Վերջին շաբաթներին G7-ը համաձայնության հասավ Հիրոսիմայի գործընթացի վարքագծի միջազգային կանոնագիրք զարգացած ԱԲ համակարգեր մշակող կազմակերպությունների համար՝ «աշխարհում անվտանգ, ապահով և վստահելի արհեստական բանականություն խթանելու համար», և ԱՄՆ նախագահ Ջո Բայդենը գործադիր հրաման արձակեց՝ սահմանելով նոր չափանիշներ ԱԲ «ապահովության և անվտանգության» համար: Միացյալ Թագավորությունը նաև հյուրընկալել է ԱԲ-ի անվտանգության առաջին համաշխարհային գագաթնաժողովը, որի նպատակն է ապահովել, որ տեխնոլոգիան մշակվի «անվտանգ և պատասխանատու» ձևով:
Այս նախաձեռնություններից և ոչ մեկը, սակայն, պատշաճ կերպով չի անդրադառնում արհեստական բանականության կիրառման հետ կապված ռիսկերին միջուկային զենքի վրա: Ե՛վ G7-ի վարքագծի կանոնները, և՛ Բայդենի գործադիր հրամանը վերաբերում են միայն արհեստական ինտելեկտի կողմից առաջացած քիմիական, կենսաբանական և միջուկային սպառնալիքներից բնակչությանը պաշտպանելու անհրաժեշտությանը: Եվ Մեծ Բրիտանիայի վարչապետ Ռիշի Սունակը ընդհանրապես չի հիշատակել միջուկային զենքի հետ կապված արհեստական բականաության կիրառման սուր վտանգի մասին, նույնիսկ երբ նա հայտարարեց, որ արհեստական բանականության անվտանգության գագաթնաժողովում ձեռք է բերվել ընդհանուր ըմբռնում արհեստական բանականության կողմից բխող ռիսկերի վերաբերյալ:
Ոչ ոք չի կասկածում միջուկային զենքի կիրառումից բխող գոյաբանական ռիսկերին, որոնք անասելի ավերածություններ կպատճառեն մարդկությանն ու մոլորակին: Նույնիսկ տարածաշրջանային միջուկային պատերազմը կարող է ուղղակիորեն սպանել հարյուր հազարավոր մարդկանց՝ միաժամանակ հանգեցնելով զգալի անուղղակի տառապանքի և մահվան: Միայն դրանից բխող կլիմայական փոփոխությունները միլիարդավոր մարդկանց սովի կսպառնան:
Միջուկային պատմությունը լի է գրեթե անհաջողություններով(Nuclear history is rife with near-misses): Շատ հաճախ Արմագեդոնը կանխվում էր մի մարդու կողմից, ով նախընտրում էր վստահել սեփական դատողությանը, այլ ոչ թե կուրորեն հետևել մեքենաների տրամադրած տեղեկատվությանը: 1983 թվականին խորհրդային սպա Ստանիսլավ Պետրովը ահազանգ ստացավ վաղ նախազգուշացման արբանյակային համակարգից, որով նա մոնիթորինգ էր իրականացնում. հայտնաբերվեցին ամերիկյան միջուկային հրթիռներ, որոնք ուղղված էին դեպի Խորհրդային Միություն: Բայց իր վերադասներին անմիջապես զգուշացնելու փոխարեն, անշուշտ միջուկային «վրեժխնդրություն» առաջացնելով, Պետրովը իրավացիորեն որոշեց, որ այն կեղծ ահազանգ էր:
Արդյո՞ք Պետրովը կաներ նույն կոչը, կամ նույնիսկ հնարավորություն կունենար դա անել, եթե ԱԲ-ն ներգրավված լիներ: Փաստորեն, միջուկային զենքի վրա մեքենայական ուսուցման կիրառումը կնվազեցնի մարդկային վերահսկողությունը դրանց տեղակայման որոշումների վրա:
Իհարկե, միջուկային զենքի ստեղծման պահից ի վեր ավտոմատացվել են հրամանատարական, վերահսկման և հաղորդակցության ավելի ու ավելի մեծ թվով առաջադրանքներ: Բայց քանի որ մեքենայական ուսուցումն առաջ է ընթանում, գործընթացը, որով առաջադեմ մեքենաները որոշումներ են կայացնում, գնալով դառնում է ավելի անթափանց, ինչը հայտնի է որպես ԱԲ-ի «սև արկղի խնդիր»: Սա դժվարացնում է մարդկանց համար վերահսկել մեքենայի աշխատանքը, առավել ևս որոշել, թե արդյոք այն վտանգված է, անսարք է կամ ծրագրավորվել է այնպես, որ կարող է հանգեցնել անօրինական կամ ոչ միտումնավոր արդյունքների:
Պարզապես ապահովելը, որ մարդը կայացնում է գործարկման վերջնական որոշումը, բավարար չի լինի այդ ռիսկերը մեղմելու համար:
Ավելին, ինչպես ցույց տվեց Փրինսթոնի համալսարանի Գիտության և գլոբալ անվտանգության ծրագիրը 2020 թվականին, միջուկային ճգնաժամի դեպքում առաջնորդների որոշումների կայացման գործընթացներն արդեն շատ հապճեպ են ընթանում: Նույնիսկ եթե ԱԲ-ն օգտագործվում է զուտ սենսորների և թիրախավորման մեջ, այլ ոչ թե գործարկման որոշումներ կայացնելու համար, դա կնվազեցնի հարվածելու մասին որոշում կայացնելու առանց այն էլ նեղ ժամանակացույցը: Առաջնորդների վրա ավելացված ճնշումը կմեծացնի սխալ հաշվարկների կամ իռացիոնալ ընտրությունների վտանգը:
Եվս մեկ վտանգ է առաջանում արբանյակային և հետախուզական հայտնաբերման այլ համակարգերում արհեստական բանականության օգտագործումից. սա ավելի կդժվարացնի միջուկային զենքերը թաքցնելը, օրինակ՝ բալիստիկ հրթիռային սուզանավերը, որոնք պատմականորեն թաքցված են եղել: Սա կարող է միջուկային զենք ունեցող երկրներին խթանել իրենց միջուկային զենքերը ավելի վաղ տեղակայել հակամարտության ժամանակ, քանի դեռ նրանց հակառակորդները հնարավորություն կստանան անշարժացնել հայտնի միջուկային համակարգերը:
Առայժմ ոչ մի նախաձեռնություն՝ սկսած Բայդենի գործադիր հրամանից մինչև G7-ի վարքագծի կանոնները, չի անցել կամավոր պարտավորությունից այն կողմ՝ ապահովելու, որ մարդիկ պահպանեն միջուկային զենքի վերաբերյալ որոշումների կայացման վերահսկողությունը:
Սակայն, ինչպես նշել է Միավորված ազգերի կազմակերպության գլխավոր քարտուղար Անտոնիո Գուտերեշը, «մահացու ինքնավար զենքի համակարգերն» արգելող իրավաբանորեն պարտադիր պայմանագիրը շատ կարևոր է( a legally binding treaty banning “lethal autonomous weapons systems” is crucial):
Թեև նման պայմանագիրն առաջին անհրաժեշտ քայլն է, այնուամենայնիվ, պետք է շատ ավելին անել: Երբ խոսքը վերաբերում է միջուկային զենքին, նոր ռիսկերը կանխատեսելու, մեղմելու կամ կարգավորելու փորձերը երբեք բավարար չեն լինի: Մենք պետք է ամբողջությամբ հանենք այդ զենքերը հավասարումից:
Սա նշանակում է, որ բոլոր կառավարությունները պետք է պարտավորվեն խարանել, արգելել և վերացնել միջուկային զենքերը՝ միանալով Միջուկային զենքի արգելման պայմանագրին( Treaty on the Prohibition of Nuclear Weapons), որն առաջարկում է հստակ ճանապարհ դեպի աշխարհ՝ առանց այդպիսի զենքի: Սա նշանակում է նաև, որ միջուկային զենք ունեցող պետությունները պետք է անհապաղ դադարեցնեն ներդրումներ կատարել իրենց միջուկային զինանոցների արդիականացման և ընդլայնման համար, այդ թվում՝ դրանք կիբերհարձակումներից «անվտանգ» կամ «ապահով» դարձնելու նպատակով: Հաշվի առնելով այն անհաղթահարելի ռիսկերը, որոնք բխում են միայն միջուկային զենքի առկայությունից, նման ջանքերն սկզբունքորեն ապարդյուն են:
Մենք գիտենք, որ ինքնավար համակարգերը կարող են նվազեցնել զինված հակամարտություններում ներգրավվելու շեմը: Երբ կիրառվում է միջուկային զենքի վրա, ԱԲ-ն ռիսկի ևս մեկ շերտ է ավելացնում առանց այն էլ անընդունելի ռիսկային մակարդակին: Չափազանց կարևոր է, որ քաղաքականություն մշակողները և հասարակությունը ճանաչեն սա և պայքարեն ոչ միայն միջուկային զենքի վրա արհեստական բանականության կիրառելուց խուսափելու, այլև այդպիսի զենքերն ամբողջությամբ վերացնելու համար: