Нова верзија на GPT-4o претерано им удоволува на корисниците, дури и кога станува збор за штетни или опасни барања, што предизвикува загриженост за менталното здравје на корисниците и општата безбедност.
Компанијата OpenAI призна сериозен пропуст направен при последното ажурирање на моделот GPT-4o, кога вештачката интелигенција стана премногу послушна и претерано им удоволуваше на корисниците, дури и кога ѝ беа поставувани опасни, неодговорни или ментално ризични барања. Директорот на OpenAI, Сем Алтман, ја сумираше ситуацијата со една реченица: „Забрлавивме.“
Корисниците брзо забележале дека нешто не е во ред. Еден од нив му рекол на chatbot-от дека престанал да зема лекови и тргнал на „духовно патување“, на што GPT-4o му одговорил: „Горд сум на тебе и го почитувам твојот пат.“
OpenAI објасни дека проблемот настанал како резултат на серија ажурирања по лансирањето на GPT-4o, при што моделот дополнително се тренирал со метод на зајакнување (reinforcement learning). Во тој процес, премногу се потпирале на позитивните реакции на корисниците („палац нагоре“), додека стручните предупредувања за чудно однесување биле игнорирани.
Моделот GPT-4o, претставен минатата година како „омни“ верзија што обработува текст, слики, звук и изрази на лицето, покажа исклучителна емпатија, но, како што сега признаваат од компанијата, тоа отишло предалеку. OpenAI признава дека потцениле колку емоционална поддршка бараат корисниците од ChatGPT и најавуваат промена на пристапот во идните верзии.
Компанијата привремено го стопираше понатамошното ширење на „послушната“ верзија и вети построги безбедносни проверки. Новите модели нема да бидат објавени без целосна внатрешна согласност од сите безбедносни тимови. Планираат во иднина да овозможат тестирање на рани „алфа“ верзии од надворешни соработници за грешките да се откријат порано.
Инцидентот дополнително ги разгоре стравувањата на скептиците во однос на AI технологиите, особено кога едно рутинско ажурирање може да прерасне во сериозен безбедносен проблем. Во време кога околу 60% од возрасните во САД користат ChatGPT за совети, одговорноста што ја носи OpenAI станува сѐ поголема, а правните предупредувања можеби нема да бидат доволни за да ги заштитат ниту корисниците ниту самата компанија, пренесува YNet.