Արհեստական բանականություն և Ազգային անվտանգություն
Մարդիկ գործիք պատրաստող տեսակ են, բայց մենք կարո՞ղ ենք վերահսկել մեր պատրաստած գործիքները: Երբ Ռոբերտ Օփենհայմերը և այլ ֆիզիկոսներ 1940-ականներին ստեղծեցին առաջին միջուկային տրոհման զենքը, նրանք անհանգստացան, որ իրենց գյուտը կարող է ոչնչացնել մարդկությունը: Մինչ այժմ դա չի եղել, սակայն միջուկային զենքի վերահսկումը մշտական մարտահրավեր է այդ ժամանակվանից ի վեր: Այս մասին գրում է հոդվածի հեղինակ Ջոզեֆ Ս. Նայ, Կրտսերը project-syndicate-ում:
Այժմ շատ գիտնականներ արհեստական բանականությունը՝ ալգորիթմներ և ծրագրաշարեր, որոնք հնարավորություն են տալիս մեքենաներին կատարել այնպիսի առաջադրանքներ, որոնք սովորաբար պահանջում են մարդկային բանականությունը, տեսնում են որպես հավասարապես փոխակերպող գործիք: Ինչպես նախկին ընդհանուր նշանակության տեխնոլոգիաները, AI-ն ունի բարու և չարի հսկայական ներուժ: Քաղցկեղի հետազոտության մեջ այն կարող է մի քանի րոպեում դասավորել և ամփոփել ավելի շատ ուսումնասիրություններ, քան մարդկային թիմը կարող է անել ամիսների ընթացքում:
Բայց արհեստական բանականությունւ նաև նվազեցնում է ծախսերը և մուտքի խոչընդոտները անհամապատասխանության, ահաբեկիչների և այլ վատ ակտորների համար, որոնք կարող են վնաս պատճառել: Ինչպես նախազգուշացրել է RAND-ի վերջին ուսումնասիրությունը, «ծաղկի նման վտանգավոր վիրուսի վերածնման սահմանային արժեքը կարող է լինել 100,000 դոլար, մինչդեռ բարդ պատվաստանյութ մշակելը կարող է լինել ավելի քան 1 միլիարդ դոլար»:
Ավելին, որոշ փորձագետներ անհանգստանում են, որ զարգացած AI-ն այնքան ավելի խելացի կլինի, քան մարդիկ, որ կկառավարի մեզ, այլ ոչ թե հակառակը: Գնահատումները, թե որքան ժամանակ կպահանջվի նման գերխելացի մեքենաների մշակման համար, որոնք հայտնի են որպես արհեստական ընդհանուր բանականություն, տատանվում են մի քանի տարուց մինչև մի քանի տասնամյակ: Բայց ինչ էլ որ լինի, այսօրվա AI-ի աճող ռիսկերն արդեն ավելի մեծ ուշադրություն են պահանջում:
40 տարի շարունակ Ասպենի ռազմավարության խումբը (բաղկացած է նախկին պետական պաշտոնյաներից, գիտնականներից, գործարարներից և լրագրողներից) ամեն ամառ հավաքվում էր՝ կենտրոնանալու ազգային անվտանգության հիմնական խնդրի վրա: Նախորդ նիստերը քննարկել են այնպիսի թեմաներ, ինչպիսիք են միջուկային զենքը, կիբերհարձակումները և Չինաստանի վերելքը: Այս տարի մենք կենտրոնացել ենք ազգային անվտանգությանը AI-ի ազդեցության վրա՝ ուսումնասիրելով օգուտները, ինչպես նաև ռիսկերը:
Առավելություններից են հետախուզական տվյալների ահռելի քանակությունը տեսակավորելու ավելի մեծ կարողությունը, վաղ նախազգուշացման համակարգերի ուժեղացումը, բարդ լոգիստիկ համակարգերի բարելավումը և այլն: Բայց կան նաև մեծ ռիսկեր, ինչպիսիք են ինքնավար զենքի առաջընթացը, ծրագրավորման ալգորիթմների պատահական սխալները և հակառակորդ AI-ները, որոնք կարող են թուլացնել կիբերանվտանգությունը:
Չինաստանը հսկայական ներդրումներ է կատարել արհեստական բանականության ավելի լայն սպառազինությունների մրցավազքում, և այն նաև պարծենում է կառուցվածքային որոշ առավելություններով: Արհեստական ինտելեկտի երեք հիմնական ռեսուրսները տվյալներն են՝ մոդելներին պատրաստելու համար; խելացի ինժեներներ ալգորիթմներ մշակելու համար; և հաշվողական հզորություն դրանք գործարկելու համար: Այն տարածքը, որտեղ նա առավելապես զիջում է Միացյալ Նահանգներին, առաջադեմ միկրոչիպերն են, որոնք արտադրում են AI-ի հաշվողական հզորությունը:
Արտահանման ամերիկյան վերահսկողությունը սահմանափակում է Չինաստանի մուտքը այս սահմանային չիպերին, ինչպես նաև դրանք արտադրող հոլանդական թանկարժեք լիտոգրաֆիկ մեքենաներին: Ասպենում փորձագետների միջև կոնսենսուսն այն էր, որ Չինաստանը մեկ կամ երկու տարի հետ է ԱՄՆ-ից, բայց իրավիճակը մնում է անկայուն: Չնայած նախագահներ Ջո Բայդենը և Սի Ցզինպինը պայմանավորվել են երկկողմանի քննարկումներ անցկացնել արհեստական ինտելեկտի վերաբերյալ, երբ նրանք հանդիպեցին անցյալ տարվա աշնանը, Ասպենում քիչ լավատեսություն կար արհեստական ինտելեկտի զենքի վերահսկման հեռանկարների վերաբերյալ:
Հատկապես լուրջ վտանգ են ներկայացնում ինքնավար զենքերը։ Միավորված ազգերի կազմակերպությունում ավելի քան մեկ տասնամյակ դիվանագիտական աշխատանքից հետո երկրները չկարողացան համաձայնության գալ ինքնավար մահաբեր զենքի արգելքի շուրջ: Միջազգային մարդասիրական իրավունքը պահանջում է, որ զինվորականները խտրականություն դնեն զինված մարտիկների և խաղաղ բնակիչների միջև, և Պենտագոնը վաղուց պահանջում է, որ մարդը լինի որոշումների կայացման օղակում՝ նախքան զենքը կրակելը: Բայց որոշ համատեքստերում մարդկային միջամտության ժամանակ չկա:
AI-ի ամենասարսափելի վտանգներից մեկը կենսաբանական պատերազմի կամ ահաբեկչության դեմ դրա կիրառումն է: Երբ երկրները համաձայնեցին արգելել կենսաբանական զենքը 1972 թվականին, ընդհանուր համոզմունքն այն էր, որ նման սարքերը օգտակար չեն՝ «հետադարձ» ռիսկի պատճառով(owing to the risk of “blowback”): Բայց սինթետիկ կենսաբանության դեպքում հնարավոր է ստեղծել այնպիսի զենք, որը ոչնչացնում է մի խումբ, բայց ոչ մյուսը:
Միջուկային տեխնոլոգիաների դեպքում երկրները 1968-ին համաձայնեցին չտարածման պայմանագրի շուրջ, որն այժմ ունի 191 անդամ: Ատոմային էներգիայի միջազգային գործակալությունը պարբերաբար ստուգում է ներքին էներգետիկ ծրագրերը՝ հաստատելու, որ դրանք օգտագործվում են բացառապես խաղաղ նպատակներով։ Եվ չնայած սառը պատերազմի ինտենսիվ մրցակցությանը, միջուկային տեխնոլոգիաների առաջատար երկրները 1978թ.-ին համաձայնեցին զսպվածություն ցուցաբերել առավել զգայուն օբյեկտների և տեխնիկական գիտելիքների արտահանման հարցում: Նման նախադեպը հուշում է AI-ի որոշ ուղիներ, թեև երկու տեխնոլոգիաների միջև ակնհայտ տարբերություններ կան:
Համոզվածություն կա, որ տեխնոլոգիան ավելի արագ է շարժվում, քան քաղաքականությունը կամ դիվանագիտությունը, հատկապես, երբ այն պայմանավորված է մասնավոր հատվածում ինտենսիվ շուկայական մրցակցությամբ: Եթե այս տարվա Ասպենի ռազմավարության խմբի հանդիպման մեկ հիմնական եզրակացություն կար, այն էր, որ կառավարությունները պետք է արագացնեն իրենց տեմպերը: