Կարո՞ղ է արհեստական բանականությունը սովորել հնազանդվել օրենքին
Getty Images
Եթե բրիտանացի գիտնական Ալան Թյուրինգի աշխատանքը «մտածող մեքենաների» վերաբերյալ նախադրյալն էր այն բանի, ինչը մենք հիմա անվանում ենք արհեստական բանականությունը ապա հանգուցյալ հոգեբան Դենիել Կանեմանի «Մտածիր դանդաղ, գործիր արագ» բեսթսելլերը կարող է շարունակությունը լինել՝ հաշվի առնելով այն պատկերացումները, թե ինչպես ենք մենք մտածում: «Մեզ» հասկանալը վճռորոշ կլինի «նրանց» կարգավորելու համար։ Այս մասին գրում է հոդվածի հեղինակ Անտարա Հալդարը(Antara Haldar) project-syndicate-ում։
Այդ ջանքերն արագորեն տեղափոխվեցին քաղաքականություն մշակողների օրակարգի թոփ: Մարտի 21-ին ՄԱԿ-ը միաձայն ընդունեց շրջադարձային բանաձև (ԱՄՆ-ի գլխավորությամբ), որը կոչ էր անում միջազգային հանրությանը «կառավարել այս տեխնոլոգիան, այլ ոչ թե թույլ տալ, որ այն կառավարի մեզ»: Եվ սա տեղի ունեցավ Եվրոպական միության ԱԲ ակտի և ԱԲ անվտանգության մասին Բլետչլիի հռչակագրի հետքերով, որը ավելի քան 20 երկրներ (նրանց մեծ մասը զարգացած տնտեսություններ) ստորագրեցին նախորդ նոյեմբերին: Ավելին, երկրի մակարդակով ջանքերը շարունակվում են, այդ թվում՝ ԱՄՆ-ում, որտեղ նախագահ Ջո Բայդենը հրաման է արձակել արհեստական բանականության «ապահով, անվտանգ և վստահելի զարգացման և օգտագործման» վերաբերյալ:
Այս ջանքերը պատասխան են ԱԲ սպառազինությունների մրցավազքին, որը սկսվեց OpenAI-ի կողմից ChatGPT-ի հրապարակային թողարկումով 2022 թվականի վերջին: Հիմնական մտահոգությունը գնալով ավելի հայտնի «հավասարեցման խնդիրն» է. այն փաստը, որ ԱԲ-ի նպատակները և դրանց հետապնդման ընտրված միջոցները չեն կարող հարգալից կամ նույնիսկ համատեղելի լինել մարդկանց հետ: Արհեստական բանականության նոր գործիքները նաև պոտենցիալ ունեն չարաշահվելու վատ ակտորների կողմից՝ խորացնելու և ընդլայնելու նախկինում գոյություն ունեցող խտրականության և կողմնակալության ձևերը, խախտելու գաղտնիությունը և աշխատողներին տեղահանելու համար:
Հավասարության խնդրի ամենածայրահեղ ձևը ԱԲ-ի կողմից առաջացած գոյաբանական ռիսկն է: Անընդհատ զարգացող ԱԲ-ները, որոնք կարող են իրենց սովորեցնել, կարող են խարդախ լինել և որոշել ֆինանսական ճգնաժամ ստեղծել, ազդել ընտրությունների վրա կամ նույնիսկ ստեղծել կենսազենք:
Բայց անպատասխան հարցն ընկած է ԱԲ-ի՝ որպես հնարավոր գոյաբանական սպառնալիքի կարգավիճակի հիմքում։ Ո՞ր մարդկային արժեքներին պետք է համապատասխանի տեխնոլոգիան: Արդյոք այն պետք է լինի փիլիսոփայորեն ուտիլիտարիստական, թե՞ դեոնտոլոգիական: Այն պետք է լինի քաղաքականապես պահպանողական, թե ազատական: Մե՞զ նման լինի, թե՞ մեզնից լավը։
Այս հարցերը զուտ հիպոթետիկ չեն:
Բարեբախտաբար, ժամանակակից հասարակությունները մշակել են մեխանիզմ, որը թույլ է տալիս տարբեր \ ցեղերի գոյատևել. օրենքի գերակայություն: Ինչպես նշել եմ նախորդ մեկնաբանություններում, օրենքը, որպես ինստիտուտ, ներկայացնում է համագործակցության ապոթեոզը: Դրա ի հայտ գալը խորը բեկում էր այն բանից հետո, երբ մարդկությունը դարեր շարունակ պայքարում էր լուծելու իր դասավորվածության խնդիրը՝ ինչպես կազմակերպել կոլեկտիվ գործողությունները:
Ճանաչողական առումով օրենքը ներկայացնում էր արմատական նոր տեխնոլոգիա: Երբ այն ինտերնիզացվեց, այն համապատասխանեցրեց անհատական գործողությունները համայնքային կոնսենսուսի հետ: Օրենքը ենթարկվում էր որպես օրենք՝ անկախ տվյալ կանոնի վերաբերյալ անհատի սուբյեկտիվ դատողությունից: Մի քանի ականավոր փիլիսոփաներ հավատարիմ են մնացել այս եզակի հատկանիշին: Քսաներորդ դարի իրավատեսաբան Հ.Լ.Ա. Հարթը նկարագրել է օրենքը որպես մեխանիզմ, որը թույլ է տալիս ձևավորել նորմերը՝ փոխելով վարքագծի հիմքում ընկած մետա-նորմերը:
Եթե օրենքը կարկատան լիներ, այն կարող էր ավելի լավ ներկայացնել համոզմունքների և կարծիքների առանձին խմբերի, բայց համահունչ լինելու հաշվին: Օրենքն, այսպիսով, ծառայում է որպես մարդու անհատական վարքագծի հաղթահարման կոճակ: Այն կլանում է բարոյականության և արժեքների վերաբերյալ կոմպլեքս բանավեճերը և դրանք վերածում պարտադիր կանոնների:
ԱԲ-ի և օրենքի վերաբերյալ ընթացիկ բանավեճերի մեծ մասը կենտրոնացած է այն բանի վրա, թե ինչպես կարող է տեխնոլոգիան մարտահրավեր նետել գերակշռող կարգավորիչ պարադիգմներին: Մտահոգություններից մեկը «կարմիր թագուհու էֆեկտն» է (ակնարկ Ալիսը Հրաշքների աշխարհում), որը նկարագրում է արագ շարժվող տեխնոլոգիայի միջոցով կարգավորումը ընթացիկ պահելուն բնորոշ դժվարությունը: Մեկ այլ խնդիր է իսկապես գլոբալ տեխնոլոգիան ազգային մակարդակով կարգավորելու մարտահրավերը: Եվ հետո կա Ֆրանկենշտեյնի հրեշի խնդիրը՝ նոր տեխնոլոգիայի մշակումը հիմնականում մասնավոր հատվածի մի քանի ընկերությունների կողմից, որոնց առաջնահերթությունները (շահույթները) տարբերվում են հանրության առաջնահերթություններից:
Միշտ դժվար է ճիշտ հավասարակշռություն գտնել նորարարության խթանման և նոր տեխնոլոգիայի հետ կապված հնարավոր հսկայական ռիսկերի մեղմացման միջև: Քանի որ ավելի ու ավելի է ակնկալվում, որ ԱԲ-ն կփոխի իրավաբանական պրակտիկան, արդյոք օրենքը դեռ կարո՞ղ է փոխել ԱԲ-ի հետագիծը: Ավելին, եթե «մտածող մեքենաները» ունակ են սովորելու, կարո՞ղ են սովորել հնազանդվել օրենքին:
Քանի որ տեխնոլոգիական հսկաները շտապում են հետապնդել արհեստական գեներատիվ բանականությանը — մոդելներ, որոնք կարող են գերազանցել մարդկանց ցանկացած ճանաչողական առաջադրանքում — արհեստական բանականության «սև արկղի» խնդիրը պահպանվում է: Նույնիսկ տեխնոլոգիան ստեղծողները հստակ չգիտեն, թե ինչպես է այն աշխատում: Քանի որ ԱԲ-ին «օբյեկտիվ գործառույթ» վերագրելու ջանքերը կարող են հանգեցնել անցանկալի հետևանքների, մեզ անհրաժեշտ կլինի ավելի բարդ մոտեցում:
Այդ նպատակով մենք պետք է ուսումնասիրենք կոգնիտիվ էվոլյուցիան, որը թույլ է տվել մարդկային հասարակություններին դիմանալ այնքան ժամանակ, որքան իրենք են: Արդյոք մարդկային օրենքները կարող են պարտադրվել որպես դիզայնի սահմանափակում (հնարավոր է, որ արհեստական բանականուփթյան պահապանները խաղում են անջատիչների դերը, որը հավասարազոր է մարդկային հասարակություններում իրավապահ մարմինների աշխատակիցներին), ինժեներների հարցն է: Բայց եթե դա հնարավոր լինի անել, կարող է ներկայացնել մեր փրկությունը:
Օրենքի միջոցով մենք կարող ենք պահանջել, որ ԱԲ-ն վճարի մեր հասարակություն ընդունվելու գինը՝ հնազանդվել մեր կոլեկտիվ վարքագծի կանոններին: Եթե արհեստական բանականության նեյրոնային ցանցերը նմանակում են մեր ուղեղը, և օրենքը, ինչպես լայնորեն ենթադրվում է, հիմնականում ճանաչողական երևույթ է, ապա հնարավոր կլինի: Եթե ոչ, ապա փորձը գոնե լույս կսփռի աֆեկտիվ, էմոցիոնալ և սոցիալական գործոնների դերի վրա մարդկային օրենքի պահպանման գործում: Թեև մեզ կարող է անհրաժեշտ լինել վերանայել և կատարելագործել գոյություն ունեցող օրենքի որոշ տարրեր, այս տեսակետը գոնե մեզ ստիպում է ուսումնասիրել «մեր» և «նրանց» միջև կարևոր տարբերությունները: Այստեղից պետք է սկսվեն արհեստական ինտելեկտը կարգավորելու մեր ջանքերը: