AI-ի հուսալիության ճգնաժամ
Իրականության մոտարկումները չեն կարող փոխարինել ճշմարտությանը: Քանի դեռ տեխնոլոգիական արդյունաբերությունը չի սկսել վերակառուցել ինտելեկտը ի սկզբանե, հալյուցինացիաները և հարցումների սարսափելի արդյունքները կպահպանվեն, և խոստացված արտադրողականության ձեռքբերումներից շատերը, որոնք պետք է թույլ տան մեծ լեզվական մոդելները, կմնան անհասանելի: Այս մասն գրում է հոդվածի հեղինակ Գարի Մարկուսը project-syndicate-ում։
Հալյուցինացիաների օրինակներ
- OpenAI-ի o3-ը հեղինակի համար մահախոսական է գրել՝ կեղծ մեջբերումներով (օրինակ՝ Յոշուա Բենջիոյից) և կեղծ պնդումներով (օրինակ՝ Ջեֆրի Հինթոնի հետ բանավիճելու մասին)։
- Հարի Շիրերի համար AI-ի կողմից ստեղծված կենսագրությունը սխալ է նշել նրա ազգությունը և նրա կերպարը This Is Spinal Tap ֆիլմում։
- ChatGPT-ն անհամատեղելի և սխալ քարտեզներ է ստեղծել, երբ խնդրվել է առանձնացնել որոշակի չափանիշներով նահանգները։
- Google Overviews-ը խորհուրդ է տվել քարեր ուտել՝ հիմնվելով երգիծական հոդվածի վրա։
Անվստահելիության պատճառները
- Վատ տվյալներ. Հեղինակը նշում է, որ ինտերնետում կա աղբ, և LLM-ները նույնպես նպաստում են կասկածելի արդյունքների ստեղծմանը։
- Կատակներն ու նրբությունները չհասկանալը. AI-ն դժվարանում է հասկանալ երգիծանքը և ոչ բառացի լեզուն։
- Մոտարկումն ընդդեմ հաշվարկի. Սա ավելի խորքային խնդիր է։
- Սիմվոլիկ AI-ն (ավանդական AI) օգտագործում է ալգորիթմներ և հստակ ծրագրեր՝ հաշվարկները հուսալիորեն կատարելու համար (օրինակ՝ ամենակարճ ուղին գտնելը)։
- Գեներատիվ AI-ն մոտարկում է մարդկային լեզվի օրինաչափությունները՝ ներառելով տվյալների հսկայական ծավալներ և կանխատեսելով «հաջորդ բառը» կամ փիքսելը, որը տվյալ համատեքստում հնչում է հավանական։ Նրանք «սկզբունքորեն կույր են ճշմարտության նկատմամբ»։
«Միամտության բացը»
Հեղինակը նշում է, որ մարդիկ հակված են մարդկայնացնելու LLM-ներին՝ նրանց վերագրելով ավելի շատ ինտելեկտ, քան նրանք կարող են ունենալ՝ պայմանավորված մարդկային լեզուն նմանակելու նրանց կարողությամբ։
Ինքնաստուգման բացակայություն
LLM-ները նկարագրվում են որպես «չափազանց հիմար՝ իրենց սեփական պատասխանները ստուգելու համար», քանի որ նրանք չունեն ճշմարիտը կեղծից տարբերելու կարողություն։
Եզրակացություն
Հեղինակը պնդում է, որ առանց AI-ի հիմնարար վերաիմաստավորման և վերակառուցման, այս խնդիրները կշարունակվեն՝ սահմանափակելով AI-ից խոստացված արտադրողականության ձեռքբերումները։ Հեղինակն առաջին անգամ հալյուցինացիաների մասին զգուշացրել է դեռևս 2001 թվականին։