Արհեստական բանականությունը կփոխի՞ մարդկության ընթացքը
Moor Studio/Getty Image
Վերջին տարիներին հսկայական արդյունաբերություն է առաջացել, քանի որ Չինաստանը, Միացյալ Նահանգները, Միացյալ Թագավորությունը և Եվրամիությունը արհեստական ինտելեկտի անվտանգությունը դարձրել են առաջնահերթություն: Ակնհայտ է, որ ցանկացած տեխնոլոգիա՝ մեքենաներից և դեղագործությունից մինչև հաստոցներ և խոտհնձիչներ, պետք է նախագծված լինի հնարավորինս անվտանգ (մեկը կուզենա, որ սոցիալական մեդիայի վրա ավելի շատ հսկողություն կիրառվեր իր վաղ օրերի ընթացքում): Այս մասին գրում է հոդվածի հեղինակ Դարոն Աճեմօղլուն project-syndicate-ում։
Բայց պարզապես անվտանգության մտահոգությունները բարձրացնելը բավարար չէ: Արհեստական ինտելեկտի դեպքում բանավեճը չափազանց շատ է կենտրոնացած «AGI-ի (Արհեստական ընդհանուր ինտելեկտ) պատճառով աղետալի ռիսկերից անվտանգության վրա», որը նշանակում է գերինտելեկտ, որը կարող է գերազանցել բոլոր մարդկանց ճանաչողական առաջադրանքների մեծ մասում: Խնդիրը «հավասարեցման» հարցն է։ Արդյոք AI մոդելները տալիս են արդյունքներ, որոնք համապատասխանում են իրենց օգտատերերի և դիզայներների նպատակներին և արժեքներին։ Սա թեմա, որը հանգեցնում է տարբեր գիտաֆանտաստիկ սցենարների, որտեղ գերխելացի AI-ն ի հայտ է գալիս և ոչնչացնում մարդկությանը: Բեսթսելեր հեղինակ Բրայան Քրիստիանի The Alignment Problem-ը հիմնականում կենտրոնացած է AGI-ի վրա, և նույն մտահոգությունները ստիպել են Anthropic-ին՝ ոլորտի գլխավոր ընկերություններից մեկին, կառուցել մոդելներ իրենց սեփական «սահմանադրություններով», որոնք ամրագրում են էթիկական արժեքներն ու սկզբունքները:
Բայց կա առնվազն երկու պատճառ, թե ինչու այս մոտեցումները կարող են սխալ լինել:
1․ Անվտանգության ներկայիս բանավեճը ոչ միայն (անօգտակար) մարդակերպում է AI-ն․ սա նաև մեզ ստիպում է կենտրոնանալ սխալ թիրախների վրա: Քանի որ ցանկացած տեխնոլոգիա կարող է օգտագործվել լավի կամ վատի համար, ի վերջո կարևորն այն է, թե ով է վերահսկում այն, ինչ նպատակներ ունի և ինչպիսի կանոնակարգերի են ենթարկվում:
Եթե մենք ընդունենք այն նախադրյալը, որ AI համակարգերն ունեն իրենց անհատականությունները, մենք կարող ենք եզրակացնել, որ մեր միակ տարբերակն այն է, որ նրանք ունեն վերացական ճիշտ արժեքներ և սահմանադրություններ: Բայց նախադրյալը կեղծ է, և առաջարկվող լուծումը շատ հեռու կլինի:
Անշուշտ, հակափաստարկն այն է, որ եթե AGI-ն երբևէ իրականություն դառնար, իսկապես կարևոր կլիներ, թե արդյոք համակարգը «համապատասխանեցված» էր մարդկային նպատակներին, քանի որ ոչ մի պաշտպանիչ արգելք չէր մնա գերինտելեկտի խորամանկությունը պարունակելու համար: Բայց այս պնդումը մեզ բերում է երկրորդ խնդրին՝ կապված AI անվտանգության քննարկման մեծ մասի հետ: Նույնիսկ եթե մենք AGI-ի ճանապարհին ենք (ինչը շատ քիչ հավանական է թվում), ամենաանմիջական վտանգը դեռևս կլինի ոչ գերխելացի AI-ի չարաշահումները մարդկանց կողմից:
Ենթադրենք, որ ապագայում (ասենք 2040թ.) որոշ ժամանակ (T) կա, երբ AGI-ն կհայտնվի, և մինչև այս ժամանակը հասնի, AI համակարգերը, որոնք չունեն AGI, դեռևս կլինեն ոչ ինքնավար: (Եթե նրանք պետք է դառնային ինքնակառավարման AGI-ից առաջ, թող այդ օրը լինի T:) Հիմա հաշվի առեք իրավիճակը T-ից մեկ տարի առաջ: Մինչ այդ, AI համակարգերը կդառնան բարձր ունակություններով օժտված (գտնվելով գերինտելեկտի գագաթնակետում), և հարցը, որը մենք կցանկանայինք տալ հետևյալն է։ Ո՞վ է վերահսկում հենց հիմա:
Պատասխանը, անշուշտ, կլինեն մարդկային գործակալները՝ անհատապես կամ հավաքականորեն (կառավարության, կոնսորցիումի կամ կորպորացիայի տեսքով): Քննարկումը պարզեցնելու համար թույլ տվեք այս պահին AI-ի համար պատասխանատու մարդկային գործակալներին անվանել Corporation X: Այս ընկերությունը (դա կարող է լինել նաև մեկից ավելի ընկերություններ, ինչը կարող է ավելի վատ լինել, ինչպես մենք կտեսնենք) կարող է օգտագործել իր AI-ի հնարավորությունները ցանկացած նպատակի համար, որը ցանկանում է: Եթե նա ցանկանում էր ոչնչացնել ժողովրդավարությունը և ստրկացնել մարդկանց, կարող էր դա անել: Սպառնալիքը, որ այդքան շատ մեկնաբաններ վերագրում են AGI-ին, արդեն հասել էր մինչև AGI-ին:
Իրականում իրավիճակը, հավանաբար, ավելի վատ կլիներ, քան այս նկարագրությունը, քանի որ X Corporation-ը կարող էր բերել նմանատիպ արդյունքի, նույնիսկ եթե նրա նպատակը չլիներ ոչնչացնել ժողովրդավարությունը: Եթե իր սեփական նպատակները լիովին չհամապատասխանեն ժողովրդավարությանը (ինչն անխուսափելի է), ապա ժողովրդավարությունը կարող է տուժել որպես չնախատեսված հետևանք (ինչպես եղել է սոցիալական մեդիայի դեպքում):
Օրինակ, որոշ շեմը գերազանցող անհավասարությունը կարող է վտանգել ժողովրդավարության պատշաճ գործունեությունը. բայց այդ փաստը չի խանգարի X կորպորացիային անել ամեն ինչ իրեն կամ իր բաժնետերերին հարստացնելու համար: Վնասակար օգտագործումը կանխելու համար իր AI մոդելների մեջ ներկառուցված ցանկացած պաշտպանիչ բազրիք նշանակություն չի ունենա, քանի որ Corporation X-ը դեռ կարող է օգտագործել իր տեխնոլոգիան, ինչպես ցանկանում է:
Նմանապես, եթե կային երկու ընկերություններ՝ Corporation X-ը և Corporation Y-ը, որոնք վերահսկում էին բարձր ընդունակություններով AI մոդելները, նրանցից մեկը, կամ երկուսն էլ, դեռ կարող էին հետապնդել նպատակներ, որոնք վնաս են հասցնում սոցիալական համախմբվածությանը, ժողովրդավարությանը և մարդու ազատությանը: (Եվ այն փաստարկը, որ նրանք կաշկանդելու են միմյանց, համոզիչ չէ: Եթե ինչ-որ բան, ապա նրանց մրցակցությունը կարող է նրանց ավելի անողոք դարձնել):
Այսպիսով, նույնիսկ եթե մենք ստանանք այն, ինչ ցանկանում են արհեստական ինտելեկտի անվտանգությամբ զբաղվող հետազոտողներից շատերը — պատշաճ դասավորվածություն և AGI-ի սահմանափակումներ — մենք ապահով չենք լինի: Այս եզրակացության հետևանքները պետք է ակնհայտ լինեն. մեզ անհրաժեշտ են շատ ավելի ուժեղ ինստիտուտներ՝ տեխնոլոգիական ընկերություններին զսպելու համար, և ժողովրդավարական և քաղաքացիական գործողությունների շատ ավելի ուժեղ ձևեր՝ AI կառավարող կառավարություններին հաշվետու պահելու համար: Այս մարտահրավերը բավականին տարբեր է և տարբերվում է արհեստական ինտելեկտի մոդելներում առկա կողմնակալության կամ դրանց համապատասխանեցումից մարդկային նպատակների հետ:
Այդ դեպքում ինչո՞ւ ենք մենք այդքան կենտրոնացած մարդաբանական արհեստական ինտելեկտի պոտենցիալ վարքագծի վրա: Որքան ավելի շատ խոսեն այն մասին, թե ինչպես կարող է գործել գերխելացի արհեստական ինտելեկտը, այնքան ավելի շատ հասարակությունը կսկսի մտածել, որ AGI-ն մոտ է: Մանրածախ և ինստիտուցիոնալ ներդրողները կներգրավվեն հաջորդ մեծ գործի մեջ, և տեխնոլոգիական ղեկավարները, ովքեր մեծացել են գերխելացի AI-ի գիտաֆանտաստիկ պատկերներով, կստանան ևս մեկ անվճար անցագիր: Պետք է սկսենք ավելի շատ ուշադրություն դարձնել ավելի անմիջական ռիսկերին։