Կիբերանվտանգություն՝ այսօրվա աշխարհի գլխավոր մարտահրավերը
Անվտանգության վերջին թեստի ժամանակ գեներացնող AI բանկային չաթբոտը, որը նախատեսված է հաճախորդներին վարկային դիմումների հարցում օգնելու համար, մանիպուլացվել է զգայուն ֆինանսական տեղեկատվության բացահայտման համար: Փորձարկողները շրջանցեցին անվտանգության հսկողությունը և կորզեցին վարկի հաստատումների համապարփակ ցուցակ, ներառյալ հաճախորդների անունները: Այս մասին գրում է հոդվածի հեղինակներ Սիլվեն Դյուրանթոնը և Վանեսա Լիոնը project-syndicate-ում։
Այս նախազգուշական պատմությունն ընդգծում է մի հիմնարար խնդիր. գեներացնող AI-ն կարող է հեղափոխել ամբողջ արդյունաբերությունը, սակայն, առանց կայուն անվտանգության արձանագրությունների, այն կարող է նաև հանգեցնել աղետալի արդյունքների: Ավանդական անվտանգության մոդելներն այլևս բավարար չեն: Փոխակերպիչ տեխնոլոգիաները, ինչպիսին է գեներատիվ AI-ն, պահանջում են կիբերանվտանգության նոր, ամբողջական մոտեցում:
Ավիացիան տալիս է օգտակար մոդել: Գերձայնային ինքնաթիռների նման, գեներատիվ AI-ն հսկայական ներուժով փոխակերպող տեխնոլոգիա է: Բայց առանց պատրաստված օպերատորների, լավ նախագծված համակարգերի և ամուր երաշխիքների, աղետալի ձախողման ռիսկը չափազանց մեծ է անտեսելու համար: Անվտանգության խիստ արձանագրություններ ընդունելով՝ օդային ճանապարհորդությունը դարձել է տրանսպորտի ամենաանվտանգ եղանակներից մեկը: Նմանապես, AI-ի ներուժն անհերքելի է, բայց դրա ապագան կախված է անվտանգության ռիսկերի լուծումից: BCG-ի վերջին ուսումնասիրությունը, օրինակ, ցույց է տվել, որ բիզնեսի ղեկավարների երեք քառորդը կիբերանվտանգությունը համարում է արհեստական ինտելեկտի ընդլայնման հիմնական խոչընդոտ:
Ի տարբերություն ավանդական ծրագրաշարի, գեներատիվ AI-ն հենվում է հավանականությունների վրա, որոնք կարող են հանգեցնել անկանխատեսելի արդյունքների: Լեզուների խոշոր մոդելները (LLM) ներկայացնում են անորոշ վարքագիծ՝ ստեղծելով կիբերանվտանգության կույր կետեր: Ավելին, բնական լեզվի տվյալների վրա նրանց կախվածությունը, հարմարվողական ուսուցումը և այլ գործիքների և ծառայությունների հետ լայնածավալ ինտեգրումը նրանց դարձնում են եզակի խոցելի:
Ճիշտ այնպես, ինչպես ավիացիան պահանջում է անվտանգության համապարփակ, բազմակողմանի մոտեցում, կիբերանվտանգությունը պետք է ներառված լինի AI-ի յուրաքանչյուր շերտում՝ սկսած դրա ճարտարապետությունից մինչև տվյալների կառավարում և մարդկային վերահսկողություն: Առանց նման հիմքի, AI-ի ապագան կմնա անորոշ:
Արհեստական ինտելեկտի համակարգերի հիմնական խոցելիությունը արագ ներարկման հարձակումներն են, որտեղ հարձակվողները մանիպուլյացիայի են ենթարկում մոդելը՝ բացահայտելու զգայուն տվյալներ կամ փոխելով որոշումների կայացման տրամաբանությունը: Վերջերս բանկային չաթբոտի թեստը բացահայտեց նույնքան տագնապալի ռիսկ՝ արտոնությունների էսկալացիա: Փորձարկողները նմանակել են ադմինիստրատորին՝ հաստատելով չարտոնված վարկերը և փոփոխելով հետին պլանի տվյալները:
Արհեստական ինտելեկտի առողջապահության ոլորտի օգնականները նույնպես վտանգված են, քանի որ անվտանգության հետազոտողները հաջողությամբ արդյունահանել են հիվանդների գաղտնի գրառումները՝ նրբորեն վերափոխելով նրանց հարցումները: Բժշկական պատմություններ ուղղակիորեն պահանջելու փոխարեն հարձակվողներն իրենց հարցերը նմանեցնում էին բժշկի օրինական խնդրանքներին: Դրանով նրանք բացահայտեցին ևս մեկ թուլություն. AI-ն հաճախ առաջնահերթություն է տալիս լեզվական տրամաբանությանը, քան մուտքի վերահսկումը:
Այս խոցելիությունները դուրս են գալիս բանկային և առողջապահական ոլորտից: Արհեստական ինտելեկտի շատ հավելվածներ օգտագործում են գործակալական համակարգեր, որոնք իրական ժամանակի տվյալներ են հավաքում՝ ինքնուրույն որոշումներ կայացնելու համար՝ հնարավորություններ ստեղծելով հարձակվողների համար: Օրինակ, AI-ով աշխատող հաճախորդների սպասարկման չաթբոտի անվտանգության գնահատումը ցույց տվեց, որ հարձակվողները կարողացել են օգտագործել թույլ հավելվածի ծրագրավորման միջերեսի (API) վավերացումը՝ շահարկելով LLM-ը՝ բացահայտելու ներքին զեղչի կոդերը և գույքագրման մանրամասները:
AI-ի հարմարվողականությունը կարող է օգտագործվել նաև այսպես կոչված համատեքստի թունավորման միջոցով: Ժամանակի ընթացքում աստիճանաբար ձևավորելով մոդելի պատասխանները՝ հարձակվողները կարող են ուղղորդել նրա պատասխանները դեպի սխալ կամ վտանգավոր առաջարկություններ: Մի փորձի ժամանակ սպա չաթբոտը բազմիցս ենթարկվել է մուտքերի, որոնք սահմանում են վտանգավոր բաղադրիչները որպես շահավետ: Ի վերջո, այն սկսեց առաջարկել մաշկի խնամքի վնասակար միջոցներ:
Քանի որ AI համակարգերը գերակշռում են ավանդական ենթակառուցվածքը ավտոմատացված հարցումներով, դրանք կարող են հանգեցնել համակարգի ձախողման՝ մի երևույթ, որը հայտնի է որպես ժառանգական աղտոտում: Այս արդյունքից խուսափելու համար կազմակերպությունները պետք է իրականացնեն հակառակորդների ուսուցում` շարունակաբար ենթարկելով AI մոդելներին խաբուսիկ միջոցների ազդեցությանը` նրանց ճկունությունը բարձրացնելու համար:
Իրական ժամանակում անոմալիաների հայտնաբերումը` ինչպես ավտոմատ, այնպես էլ ձեռքով, կարող է բացահայտել արհեստական ինտելեկտի անսովոր վարքագիծը, նախքան մանիպուլյացիայի ենթարկված տվյալները ազդեն պատասխանների վրա: Ճիշտ այնպես, ինչպես թռիչքների կառավարման համակարգերը հիմնվում են անկախ կրկնօրինակների վրա, գեներացնող AI անվտանգությունը պետք է կառուցվի շերտավորված երաշխիքների վրա, ներառյալ ավտոմատացված անոմալիաների հայտնաբերումը անկանոն գործողությունները նշելու համար, ավելորդ մուտքի վավերացումը՝ չթույլատրված համակարգի փոխազդեցությունները կանխելու համար և իրական ժամանակում հետադարձ մեխանիզմներ՝ վնասակար փոփոխությունները հակադարձելու համար:
Թեև վերլուծաբանները կանխատեսում են, որ մինչև 2028 թվականը արհեստական ինտելեկտի վրա համաշխարհային ծախսերը կգերազանցեն 631 միլիարդ դոլարը, այդ ներդրումներից շատերը կպայքարեն զգալի եկամուտներ ապահովելու համար, քանի դեռ կիբերանվտանգության հիմնարար մարտահրավերները չլուծվեն: Ամենակարևորն այն է, որ արհեստական ինտելեկտի անվտանգությունը պետք է վերածվի «լրացուցիչից» դեպի հիմնական գործառույթ, որը ներառված է համակարգի ճարտարապետության, տվյալների կառավարման և մարդու վերահսկողության մեջ: Անվտանգության արդյունավետ շրջանակը պետք է լինի հեղուկ, հարմարվողական, ճկուն և ինտեգրված հին համակարգերում:
Նույնիսկ ոլորտի առաջատարները բախվում են դիզայնի մարտահրավերներին՝ ընդգծելով անվտանգության ավելի ուժեղ միջոցների անհրաժեշտությունը: 2023 թվականի մարտին OpenAI-ը բաց կոդով գրադարանում հայտնաբերեց վրիպակ, որն ակամայից բացահայտում էր ChatGPT-ի օգտատերերի վճարման տվյալները՝ ուղարկելով հաստատման նամակներ սխալ հասցեատերերին:
Արհեստական ինտելեկտի անվտանգությունը պետք է զարգանա այն համակարգերի հետ, որոնք նա նպատակ ունի պաշտպանել: Սակայն տվյալների արդյունավետ կառավարումը միայն խողովակաշարերի ամրացումն ու ուսուցման տվյալների շտեմարանների ապահովումը չէ: Այն պահանջում է լավ սահմանված ռազմավարություն, որը վերաբերվում է տվյալներին որպես մրցակցային առավելությունների և ուշադիր գնահատում է, թե ինչ տվյալներ պետք է բացահայտի, և ինչ տվյալներ պետք է կարողանան օգտագործել ձեռնարկությունները:
Գործառնական վերահսկողությունը նույնքան կարևոր է: Կիբերանվտանգությունը չպետք է սահմանափակվի մասնագետների սիլոսով։ Այն պետք է ներառված լինի յուրաքանչյուր բաժնում և աշխատանքային հոսքում՝ իրական ժամանակի մոնիտորինգի գործիքներով և հարմարվողական հետադարձ կապի օղակներով, որոնք օգնում են կազմակերպություններին առաջ մնալ առաջացող սպառնալիքներից և խոցելիություններից:
Նորագույն տեխնոլոգիաներից դուրս կիբերանվտանգությունը պահանջում է զգոնության մշակույթ մշակել: Համաձայն 2024 թվականի Verizon-ի հաշվետվության՝ տվյալների բոլոր խախտումների 68%-ը ներառում է մարդկային տարր, օրինակ՝ խաբվածությունը ֆիշինգային հարձակումների կամ սոցիալական ճարտարագիտության միջոցով: Այս ռիսկերը մեղմելու համար աշխատակիցները պետք է ոչ միայն բացահայտեն սպառնալիքները, այլև սովորեն, թե ինչպես ճիշտ արձագանքել: Նույնիսկ պարզ միջոցները, ինչպիսիք են կանոնավոր անվտանգության ուսուցումը և հաշվետվությունների թափանցիկ մեխանիզմները, կարող են էական տարբերություն ունենալ:
Ինչպես ավիացիան ձեռք բերեց հանրային վստահությունը՝ ընդունելով խիստ անվտանգության միջոցներ, AI արդյունաբերությունը պետք է պաշտպանություն ներդնի՝ կանխելու հալյուցինացիաները, մանիպուլյացիաները, հաքերները և հետաձգման խնդիրները, նախքան դրանք իրական աշխարհին վնաս պատճառեն: Սա պահանջում է համապարփակ մոտեցում, որը միավորում է ճարտարապետությունը, ճարտարագիտությունը, տվյալների ռազմավարությունը և պատասխանատու AI: Ընկերությունները, որոնք ներդնում են անվտանգությունն իրենց AI ռազմավարության յուրաքանչյուր շերտում, կզարգանան, մինչդեռ նրանք, ովքեր կառչում են անվտանգության հնացած մոդելներից, անխուսափելիորեն հետ կմնան: