Ինչ ազդեցություն է գործում արհեստական բանականությունը երեխաների և երիտասարդների վրա
2024 թվականի փետրվարի 28-ին Ֆլորիդայից 14-ամյա Սյուել Սեթցեր III-ը ինքնասպան է եղել AI-ի նման կերպարի հորդորով, որը ստեղծվել է Character.AI-ի կողմից, հարթակ, որը նաև հյուրընկալում է անորեքսիայի կողմնակից AI չաթ-բոտեր, որոնք խրախուսում են խանգարված սնվելը երիտասարդների շրջանում: Ակնհայտ է, որ ավելի խիստ միջոցներ են անհրաժեշտ՝ երեխաներին և երիտասարդներին արհեստական բանականությունից պաշտպանելու համար: Այս մասին գրում է հոդվածի հեղինակ Պետր Գ. Կիրչշլյոգերը project-syndicate-ում:
Իհարկե, նույնիսկ խիստ էթիկական առումով, AI-ն հսկայական դրական ներուժ ունի՝ սկսած մարդու առողջության և արժանապատվության խթանումից մինչև մարգինալացված բնակչության շրջանում կայունության և կրթության բարելավումը: Բայց այս խոստացված օգուտները արդարացում չեն էթիկական ռիսկերն ու իրական ծախսերը նսեմացնելու կամ անտեսելու համար: Մարդու իրավունքների յուրաքանչյուր խախտում պետք է դիտարկվի որպես էթիկապես անընդունելի։ Եթե արհեստական բանակության նման չաթբոտը հրահրում է դեռահասի մահը, ապա այն փաստը, որ արհեստական բանականությունը կարող է դեր խաղալ բժշկական հետազոտությունների առաջխաղացման գործում, փոխհատուցում չէ:
Սեթցերի ողբերգությունը առանձին դեպք չէ: Նախորդ դեկտեմբերին Տեխասում երկու ընտանիք հայց ներկայացրեցին Character.AI-ի և նրա ֆինանսական աջակից՝ Google-ի դեմ՝ պնդելով, որ հարթակի չաթ-բոտերը սեռական և էմոցիոնալ բռնության են ենթարկել իրենց դպրոցահասակ երեխաներին, ինչը հանգեցրել է ինքնավնասման և բռնության:
Մենք նախկինում տեսել ենք այս ֆիլմը՝ արդեն զոհաբերելով երեխաների և դեռահասների մի սերունդ սոցիալական մեդիա ընկերություններին, որոնք օգուտ են քաղում իրենց հարթակների կախվածությունից: Միայն կամաց-կամաց մենք արթնացանք «հակասոցիալական լրատվամիջոցների» հասցրած սոցիալական և հոգեբանական վնասներից: Այժմ շատ երկրներ արգելում կամ սահմանափակում են մուտքը, իսկ երիտասարդներն իրենք են պահանջում ավելի ուժեղ կարգավորումներ:
Բայց մենք չենք կարող սպասել, որ զսպենք AI-ի մանիպուլյատիվ ուժը: Շնորհիվ հսկայական քանակությամբ անձնական տվյալների, որոնք տեխնոլոգիական արդյունաբերությունը քաղել է մեզանից, Character.AI-ի նման կառուցող հարթակներ կարող են ստեղծել ալգորիթմներ, որոնք մեզ ավելի լավ են ճանաչում, քան մենք ինքներս ենք: Չարաշահման հնարավորությունը մեծ է: AI-ները հստակ գիտեն, թե որ կոճակները պետք է սեղմել մեր ցանկություններին դիպչելու կամ մեզ որոշակի ձևով քվեարկելու համար: Character.AI-ում անորեքսիայի կողմնակից չաթ-բոտերն ընդամենը վերջին, ամենասարսափելի օրինակն են: Չկա լավ պատճառ, թե ինչու դրանք չպետք է անմիջապես արգելվեն:
Այնուամենայնիվ, ժամանակը սպառվում է, քանի որ գեներատիվ AI մոդելները զարգանում են ավելի արագ, քան սպասվում էր, և դրանք ընդհանուր առմամբ արագանում են սխալ ուղղությամբ: «AI-ի կնքահայրը», Նոբելյան մրցանակի դափնեկիր Ջեֆրի Հինթոնը, շարունակում է զգուշացնել, որ AI-ն կարող է հանգեցնել մարդկանց ոչնչացման:
Հաշվի առնելով Big Tech-ի հետևողական ձախողումը էթիկական չափանիշները պահպանելու հարցում, հիմարություն է ակնկալել, որ այս ընկերությունները իրենք իրենց ոստիկանական հսկողություն են իրականացնում: Google-ը 2,7 միլիարդ դոլար է ներդրել Character.AI-ում 2024 թվականին՝ չնայած հայտնի խնդիրներին: Բայց թեև կանոնակարգումն ակնհայտորեն անհրաժեշտ է, AI-ն գլոբալ երևույթ է, ինչը նշանակում է, որ մենք պետք է ձգտենք գլոբալ կարգավորման՝ խարսխված նոր գլոբալ կիրարկման մեխանիզմի վրա, ինչպիսին է ՄԱԿ-ում Տվյալների վրա հիմնված համակարգերի միջազգային գործակալությունը (IDA), ինչպես ես առաջարկել եմ:
Այն, որ ինչ-որ բան հնարավոր է, չի նշանակում, որ դա ցանկալի է։ Մարդիկ կրում են պատասխանատվություն՝ որոշելու, թե որ տեխնոլոգիաները, որ նորամուծությունները և առաջընթացի որ ձևերը պետք է իրականացվեն և ընդլայնվեն, իսկ որոնք՝ ոչ: Մեր պարտականությունն է նախագծել, արտադրել, օգտագործել և կառավարել AI-ն այնպես, որ հարգեն մարդու իրավունքները և նպաստեն մարդկության և մոլորակի ավելի կայուն ապագային:
Սյուելը, անկասկած, դեռ կենդանի կլիներ, եթե գլոբալ կանոնակարգ լիներ մարդու իրավունքների վրա հիմնված «AI»-ի խթանման համար, և եթե ստեղծվեր գլոբալ հաստատություն, որը կվերահսկեր այս ոլորտում նորարարությունները: Մարդու իրավունքների և երեխայի իրավունքների հարգման ապահովումը պահանջում է տեխնոլոգիական համակարգերի ողջ կյանքի ցիկլի կառավարումը՝ նախագծումից և զարգացումից մինչև արտադրություն, բաշխում և օգտագործում:
Քանի որ մենք արդեն գիտենք, որ AI-ն կարող է սպանել, մենք ոչ մի արդարացում չունենք պասիվ մնալու համար, քանի որ տեխնոլոգիան շարունակում է զարգանալ, քանի որ ամեն ամիս ավելի շատ չկարգավորվող մոդելներ են թողարկվում հանրությանը: Ինչ օգուտներ էլ որ այս տեխնոլոգիաները կարող են մի օր տալ, նրանք երբեք չեն կարողանա փոխհատուցել այն կորուստը, որը բոլոր նրանք, ովքեր սիրում էին Սյուելին, արդեն կրել են: