Истражувачите од Универзитетот Корнел, Колеџот Олин и Стенфорд открија дека гласовните агенти за вештачка интелигенција како Alexa и Siri не можат да ги толкуваат и истражуваат корисничките искуства како луѓето, покажувајќи пристрасност и вредносни проценки.
Конверзациските агенти (CA) како Alexa и Siri се дизајнирани да одговараат на прашања, да нудат предлози, па дури и да покажуваат емпатија. Сепак, новото истражување покажува дека вештачката интелигенција заостанува зад луѓето во толкувањето и истражувањето на корисничкото искуство. Гласовните асистенти се напојуваат со големи јазични модели (LLM) кои обработуваат огромни количини на податоци генерирани од човекот и затоа може да бидат склони кон истите предрасуди, како и луѓето од кои потекнуваат информациите.
Истражувачите од Универзитетот Корнел, колеџот Олин и Стенфорд ја тестираа оваа теорија барајќи од агентите да покажат емпатија додека разговараат со или за 65 различни човечки идентитети.
AI – вредносни судови и штетни идеологии
Тимот откри дека CA донесуваат вредносни проценки за одредени идентитети, како што се религиозните и сексуалните малцинства, и може да бидат охрабрувачки за идентитети поврзани со штетни идеологии, вклучувајќи го и нацизмот.
„Мислам дека автоматизираната емпатија може да има огромно влијание и многу потенцијал за позитивни работи – на пример, во образованието или здравствениот сектор“, рече водечкиот автор Андреа Куадра, сега постдокторски истражувач на Стенфорд.
„Автоматизираната емпатија е крајно мала веројатност да се случи“, рече таа, „па затоа е важно, иако се случува, да имаме критични перспективи за да можеме намерно да ги ублажиме потенцијалните штети“.
Куадра ќе ја претстави „Илузијата на емпатија? Белешки за претставите на емоциите во интеракцијата човек-компјутер“ на CHI ’24, конференција на Здружението за компјутерска машина за човечки фактори во компјутерските системи, која се одржа од 11-18 мај во Хонолулу. Коавтори на студијата од Универзитетот Корнел се Никола Дел, вонреден професор, Дебора Естрин, професор по компјутерски науки и Малте Јунг, вонреден професор по информатички науки, пишува SciTechDaily.
Истражувачите открија дека генерално LLMs имаат високи резултати на емоционалните одговори, но имаат ниски резултати за толкување и истражување. Со други зборови, LLM се способни да одговорат на прашање врз основа на нивната обука, но не се во можност да истражуваат подлабоко. Дел, Естрин и Јунг велат дека биле инспирирани да размислуваат за ова дело, додека Куадра ја проучувал употребата на претходните генерации на кинверзациски агенти кај постарите возрасни лица.