Истражувачите од Оксфорд рекоа дека нивното истражување пронајде начин да утврди кога вештачката интелигенција е сигурна за одговорот, а кога го измислува.
Истражувачите пронајдоа нов метод кој може да се користи за откривање и спречување на „халуцинации“ на вештачката интелигенција, што е колоквијален термин за неточни одговори кои ги дава AI.
Една нова студија на тим од Универзитетот во Оксфорд разви статистички модел кој може да идентификува кога прашањето поставено на моделот на голем јазик (LLM) што се користи за напојување на чет-бот со вештачка интелигенција веројатно ќе даде неточен одговор.
Нивното истражување е објавено во списанието Nature.
„Халуцинациите“ од вештачката интелигенција се идентификувани како клучен проблем бидејќи напредната природа на технологијата и нејзините разговорни способности значат дека таа е способна да прикаже неточни информации како факт кога одговара на прашање.
Во време кога повеќе студенти се свртуваат кон алатките за вештачка интелигенција кога им треба помош при истражување или завршување на задачите, многу експерти повикуваат на акција за да се спречат „халуцинации“ на вештачката интелигенција, особено кога станува збор за медицински или правни прашања.
Истражувачите од Оксфорд рекоа дека нивното истражување нашло начин да се каже кога вештачката интелигенција е сигурна за одговорот, а кога го измислува.
Авторот на студијата, д-р Себастијан Фаркухар, рече: „LLM се многу способни да го кажат истото на многу различни начини, што може да го отежне разликувањето кога се сигурни во одговорот и кога буквално само „халуцинираат“ нешто. Со претходните пристапи, не беше можно да се направи разлика помеѓу кога моделот не знае што да каже и кога не знае како да го каже. Но, нашиот нов метод оди подалеку од тоа“.
Но, д-р Фаркухар рече дека треба да се направи повеќе работа за да се поправат грешките што можат да ги направат моделите со вештачка интелигенција