Մենք գիտենք, որ արհեստական ​​ինտելեկտը (AI) չի կարող մտածել ինչպես մարդիկ, բայց նոր հետազոտությունը ցույց է տվել, թե ինչպես է այս տարբերությունը կարող ազդել AI որոշումների կայացման վրա՝ հանգեցնելով հետևանքների, որոնց մարդիկ կարող են պատրաստ չլինել իրական աշխարհում:


Հետազոտությունը, որը հրապարակվել է Transactions on Machine Learning Research ամսագրում, ուսումնասիրել է, թե որքան լավ լեզվական մոդելները (LMS) կարող են նմանություններ անել: Նրանք պարզել են, որ ինչպես տառերի տողերի պարզ անալոգիաներում, այնպես էլ թվային մատրիցային առաջադրանքներում, որտեղ խնդիրն էր լրացնել մատրիցան՝ հայտնաբերելով բացակայող թվանշանը, մարդիկ լավ էին գործում, բայց AI-ի կատարումը կտրուկ անկում է ապրել:


Մարդկանց և արհեստական ​​ինտելեկտի մոդելների հուսալիությունը պատմություն-անալոգիա առաջադրանքներում ստուգելիս՝ ուսումնասիրությունը պարզել է, որ մոդելները ենթակա են պատասխանների կարգի էֆեկտների՝ պատասխանների տարբերությունների՝ փորձի ընթացակարգերի հաջորդականության պատճառով, և կարող են նաև ավելի հակված լինել վերափոխման:

Ընդհանուր առմամբ, ուսումնասիրությունը ցույց է տվել, որ արհեստական ​​ինտելեկտի մոդելները չունեն «զրոյից» սովորելու կարողություն, որտեղ սովորողը դիտում է դասերի նմուշներ, որոնք ներկա չեն եղել ուսուցման ընթացքում և հարցի հիման վրա կանխատեսումներ է անում, թե որ դասին են պատկանում:

Հետազոտության համահեղինակ Մարթա Լյուիսը՝ Ամստերդամի համալսարանի նյարդասիմվոլիկ արհեստական ​​ինտելեկտի դոցենտ, օրինակ է բերել, թե ինչպես AI-ն չի կարող կատարել անալոգային դատողություն, ինչպես մարդիկ՝ տառերի լարային առաջադրանքներում:

«Տառային շղթաների հետ անալոգիաներն ունեն «եթե abcd-ը գնում է abc, ապա ինչի՞ է գնում ijkl-ը» ձևը: «Մարդկանց մեծ մասը կպատասխանի «ijkm», և AI-ն հակված է դրան պատասխանելու», - ասաց Լյուիսը LiveScience-ին: «Բայց մեկ այլ խնդիր, որը կարող է առաջանալ, հետևյալն է. «Մարդիկ հակված են պատասխանել «ijkl»-ին. գաղափարը կրկնվող տարրը հեռացնելն է»: