Արհեստական բանականությունը քո ընկերը չէ

Meta-ի գործադիր տնօրեն Մարկ Ցուկերբերգը և OpenAI-ի Սեմ Ալտմանը ագրեսիվորեն առաջ են մղում այն գաղափարը, որ բոլորը, այդ թվում՝ երեխաները, պետք է հարաբերություններ հաստատեն արհեստական բանականության «ընկերների» կամ «ուղեկցորդների» հետ։ Միևնույն ժամանակ, միջազգային տեխնոլոգիական ընկերությունները առաջ են մղում «արհեստական բանականության գործակալների» հայեցակարգը, որոնք նախատեսված են մեզ օգնելու մեր անձնական և մասնագիտական կյանքում, կատարելու առօրյա առաջադրանքներ և ուղղորդելու որոշումների կայացման գործընթացում։ Այս մասին գրում է հոդվածի հեղինակ Պիտեր Գ. Կիրխշլագերը project-syndicate-ում։
Սակայն իրականությունն այն է, որ արհեստական բանականության համակարգերը ընկերներ, ուղեկիցներ կամ գործակալներ չեն և երբեք չեն լինի։ Դրանք մեքենաներ են և միշտ կմնան մեքենաներ։ Մենք պետք է անկեղծ լինենք դրա մասին և հակադարձենք մոլորեցնող մարքեթինգին, որը հակառակն է ենթադրում։
Ամենախաբուսիկ տերմինը «արհեստական բանականությունն» է։ Այս համակարգերը իրականում խելացի չեն, և այն, ինչ մենք այսօր անվանում ենք «արհեստական բանականություն», պարզապես տեխնիկական գործիքների ամբողջություն է, որը նախատեսված է որոշակի ճանաչողական գործառույթներ ընդօրինակելու համար։ Դրանք ունակ չեն իրական ըմբռնման և ո՛չ օբյեկտիվ են, ո՛չ արդար, ո՛չ էլ չեզոք։
Նրանք նաև ավելի խելացի չեն դառնում։ Արհեստական բանականության համակարգերը գործելու համար ապավինում են տվյալներին, և ավելի ու ավելի հաճախ դա ներառում է ChatGPT-ի նման գործիքների կողմից ստեղծված տվյալները։ Արդյունքը հետադարձ կապի օղակ է, որը վերամշակում է արդյունքը՝ առանց ավելի խորը ըմբռնում ստեղծելու։
Ավելի հիմնարար է այն, որ բանականությունը միայն խնդիրների լուծման մասին չէ, այլ նաև այն մասին, թե ինչպես են այդ խնդիրներին մոտենում և կատարվում։ Իրենց տեխնիկական հնարավորություններից անկախ, արհեստական բանականության մոդելները շարունակում են սահմանափակվել որոշակի ոլորտներով, ինչպիսիք են մեծ տվյալների հավաքածուների մշակումը, տրամաբանական եզրակացությունների կատարումը և հաշվարկների կատարումը։
Սակայն, երբ խոսքը վերաբերում է սոցիալական ինտելեկտին, մեքենաները կարող են միայն մոդելավորել հույզերը, փոխազդեցությունները և հարաբերությունները: Օրինակ, բժշկական ռոբոտը կարող է ծրագրավորվել լաց լինելու, երբ հիվանդը լաց է լինում, բայց ոչ ոք չի պնդի, որ այն իսկական տխրություն է զգում: Նույն ռոբոտը կարող է նույնքան հեշտությամբ ծրագրավորվել հիվանդին ապտակելու համար, և այն կկատարի այդ հրամանը նույն ճշգրտությամբ (նույն իսկության և ինքնագիտակցության բացակայությամբ): Մեքենան «չի հետաքրքրվում». այն պարզապես հետևում է հրահանգներին: Եվ անկախ նրանից, թե որքան զարգացած են նման համակարգերը, դա չի փոխվելու:
Պարզ ասած՝ մեքենաները զուրկ են բարոյական ինքնորոշումից։ Նրանց վարքագիծը կարգավորվում է մարդկանց կողմից ստեղծված օրինաչափություններով և կանոններով, մինչդեռ մարդկային բարոյականությունը հիմնված է ինքնավարության վրա՝ էթիկական նորմերը ճանաչելու և համապատասխանաբար վարվելու կարողության վրա։ Ի տարբերություն դրա, արհեստական բանականության համակարգերը նախատեսված են ֆունկցիոնալության և օպտիմալացման համար։ Դրանք կարող են հարմարվել ինքնուսուցման միջոցով, բայց նրանց կողմից ստեղծվող կանոնները ներքին էթիկական իմաստ չունեն։
Դիտարկենք ինքնավար մեքենաները։ A կետից B կետ հնարավորինս արագ հասնելու համար ինքնավար մեքենան կարող է մշակել կանոններ՝ ճանապարհորդության ժամանակը օպտիմալացնելու համար։ Եթե հետիոտների վրա վրաերթը օգներ այդ նպատակին հասնել, մեքենան կարող էր դա անել, եթե չհրահանգվեր չանել դա, քանի որ այն չի կարող հասկանալ մարդկանց վնասելու բարոյական հետևանքները։
Սա մասամբ պայմանավորված է նրանով, որ մեքենաները անկարող են ըմբռնել ընդհանրացման սկզբունքը՝ այն գաղափարը, որ գործողությունը էթիկական է միայն այն դեպքում, եթե այն կարող է արդարացվել որպես համընդհանուր կանոն։ Բարոյական դատողությունը կախված է այնպիսի հիմնավորում ապահովելու ունակությունից, որը մյուսները կարող են ողջամտորեն ընդունել։ Սրանք այն են, ինչ մենք հաճախ անվանում ենք «լավ պատճառներ»։ Մեքենաներից տարբերվող մարդիկ կարողանում են զբաղվել ընդհանրացվող բարոյական դատողություններով և, հետևաբար, կարող են դատել, թե արդյոք իրենց գործողությունները ճիշտ են, թե սխալ։
Հետևաբար, «տվյալների վրա հիմնված համակարգեր» (ՏՀՀ) տերմինն ավելի տեղին է, քան «արհեստական բանականությունը», քանի որ այն արտացոլում է, թե իրականում ինչ կարող է անել Արհեստական բանականությունը՝ ստեղծել, հավաքել, մշակել և գնահատել տվյալներ՝ դիտարկումներ և կանխատեսումներ կատարելու համար: Այն նաև պարզաբանում է այսօրվա զարգացող տեխնոլոգիաների ուժեղ և թույլ կողմերը։
Իրենց էությամբ, սրանք համակարգեր են, որոնք օգտագործում են բարձրակարգ մաթեմատիկական գործընթացներ՝ հսկայական քանակությամբ տվյալներ վերլուծելու համար՝ ոչինչ ավելին: Մարդիկ կարող են փոխազդել դրանց հետ, բայց հաղորդակցությունը միակողմանի է: ՏՀՀ-ները տեղյակ չեն, թե ինչ են «անում» կամ ինչ-որ բան է կատարվում իրենց շուրջը։
Սա չի նշանակում, որ ՏՀՀ-ները չեն կարող օգուտ բերել մարդկությանը կամ մոլորակին: Ընդհակառակը, մենք կարող ենք և պետք է հույսը դնենք դրանց վրա այն ոլորտներում, որտեղ նրանց կարողությունները գերազանցում են մերը: Բայց մենք պետք է նաև ակտիվորեն կառավարենք և մեղմենք նրանց ներկայացրած էթիկական ռիսկերը: Մարդու իրավունքների վրա հիմնված ՏՀՀ-ի զարգացումը և Միավորված Ազգերի Կազմակերպությունում Միջազգային տվյալների վրա հիմնված համակարգերի գործակալության ստեղծումը կարևոր առաջին քայլեր կլինեին այդ ուղղությամբ։
Վերջին երկու տասնամյակների ընթացքում խոշոր տեխնոլոգիական ընկերությունները մեզ մեկուսացրել են և մեր հասարակությունները մասնատել են սոցիալական լրատվամիջոցների միջոցով, որոնք ավելի ճշգրիտ նկարագրվում են որպես «հակասոցիալական լրատվամիջոցներ», հաշվի առնելով դրանց կախվածություն առաջացնող և քայքայիչ բնույթը։ Այժմ նույն այդ ընկերությունները առաջ են մղում արմատապես նոր տեսլական՝ մարդկային կապերը փոխարինել արհեստական ինտելեկտի «ընկերներով» և «ուղեկիցներով»։
Միևնույն ժամանակ, այս ընկերությունները շարունակում են անտեսել այսպես կոչված «սև արկղի խնդիրը». ավտոմատացված գնահատումների, կանխատեսումների և որոշումների հետևում կանգնած ալգորիթմական գործընթացների անհետևողականությունը, անկանխատեսելիությունը և թափանցիկության բացակայությունը։ Այս անթափանցիկությունը, զուգորդված կողմնակալ և խտրական ալգորիթմների բարձր հավանականության հետ, անխուսափելիորեն հանգեցնում է կողմնակալ և խտրական արդյունքների։
Սև արկղի կողմից առաջացող ռիսկերը տեսական չեն։ Այս համակարգերն արդեն իսկ ձևավորում են մեր անձնական և մասնագիտական կյանքը ավելի ու ավելի վնասակար ձևերով՝ մեզ տնտեսապես և քաղաքականապես մանիպուլացնելով, սակայն տեխնոլոգիական ոլորտի գործադիր տնօրենները մեզ կոչ են անում թույլ տալ, որ Սև արկղի գործիքները առաջնորդեն մեր որոշումները։ Մեր ազատությունն ու արժանապատվությունը, ինչպես նաև ապագա սերունդների ազատությունն ու արժանապատվությունը պաշտպանելու համար մենք չպետք է թույլ տանք մեքենաներին քողարկվել այն բանի փոխարեն, ինչ նրանք չեն՝ մենք։


