Մենք գիտենք, որ արհեստական ինտելեկտը (AI) չի կարող մտածել ինչպես մարդիկ, բայց նոր հետազոտությունը ցույց է տվել, թե ինչպես է այս տարբերությունը կարող ազդել AI որոշումների կայացման վրա՝ հանգեցնելով հետևանքների, որոնց մարդիկ կարող են պատրաստ չլինել իրական աշխարհում:
Հետազոտությունը, որը հրապարակվել է Transactions on Machine Learning Research ամսագրում, ուսումնասիրել է, թե որքան լավ լեզվական մոդելները (LMS) կարող են նմանություններ անել: Նրանք պարզել են, որ ինչպես տառերի տողերի պարզ անալոգիաներում, այնպես էլ թվային մատրիցային առաջադրանքներում, որտեղ խնդիրն էր լրացնել մատրիցան՝ հայտնաբերելով բացակայող թվանշանը, մարդիկ լավ էին գործում, բայց AI-ի կատարումը կտրուկ անկում է ապրել:
Մարդկանց և արհեստական ինտելեկտի մոդելների հուսալիությունը պատմություն-անալոգիա առաջադրանքներում ստուգելիս՝ ուսումնասիրությունը պարզել է, որ մոդելները ենթակա են պատասխանների կարգի էֆեկտների՝ պատասխանների տարբերությունների՝ փորձի ընթացակարգերի հաջորդականության պատճառով, և կարող են նաև ավելի հակված լինել վերափոխման:
Ընդհանուր առմամբ, ուսումնասիրությունը ցույց է տվել, որ արհեստական ինտելեկտի մոդելները չունեն «զրոյից» սովորելու կարողություն, որտեղ սովորողը դիտում է դասերի նմուշներ, որոնք ներկա չեն եղել ուսուցման ընթացքում և հարցի հիման վրա կանխատեսումներ է անում, թե որ դասին են պատկանում:
Հետազոտության համահեղինակ Մարթա Լյուիսը՝ Ամստերդամի համալսարանի նյարդասիմվոլիկ արհեստական ինտելեկտի դոցենտ, օրինակ է բերել, թե ինչպես AI-ն չի կարող կատարել անալոգային դատողություն, ինչպես մարդիկ՝ տառերի լարային առաջադրանքներում:
«Տառային շղթաների հետ անալոգիաներն ունեն «եթե abcd-ը գնում է abc, ապա ինչի՞ է գնում ijkl-ը» ձևը: «Մարդկանց մեծ մասը կպատասխանի «ijkm», և AI-ն հակված է դրան պատասխանելու», - ասաց Լյուիսը LiveScience-ին: «Բայց մեկ այլ խնդիր, որը կարող է առաջանալ, հետևյալն է. «Մարդիկ հակված են պատասխանել «ijkl»-ին. գաղափարը կրկնվող տարրը հեռացնելն է»: