Сем Алтман, извршен директор на OpenAI, компанијата која го разви популарниот ChatGPT, неодамна изрази загриженост дека вештачката интелигенција (AI) може да развие натчовечка убедливост пред да развие натчовечка општа интелигенција од која повеќето од нас се плашат.
„Очекувам вештачката интелигенција да има натчовечки моќи на убедување долго пред да стане супериорна во однос на луѓето во општа интелигенција, што може да доведе до некои многу чудни исходи“, објави Алтман на X минатиот вторник.
i expect ai to be capable of superhuman persuasion well before it is superhuman at general intelligence, which may lead to some very strange outcomes
— Sam Altman (@sama) October 25, 2023
AI може сериозно да влијае на нашето размислување и одлуки
Ова треба да се очекува бидејќи развојот на една специфична човечка вештина бара значително помалку технолошка софистицираност од развојот на сите способности на човечката интелигенција до натчовечки размери.
Но, предупредувањето на Алтман покренува голем број етички, технолошки и социолошки прашања кои се премногу важни за да се игнорираат. Имено, сугерира дека вештачката интелигенција наскоро би можела да стане исклучително убедлива, можеби дури и поубедлива од луѓето и дека на тој начин би можела да влијае на човековото размислување и одлуки.
Етичките импликации на вештачката интелигенција со натчовечки моќи на убедување се огромни. Замислете политичка кампања водена од таква вештачка интелигенција, способна да создава пораки и содржини толку убедливи што би можеле да влијаат на резултатите од изборите.
Или обидете се да ја замислите моќта на злоупотреба што вештачката интелигенција може да ја има во рекламирањето. На пример, доброто познавање на преференциите и афинитетите на поединците врз основа на пребарувања, купувања, објави и други активности на интернет, може да создаде хиперперсонализирани, исклучително привлечни понуди и стимулации кои потрошувачите би биле многу тешко да ги одбијат.
Предупредувањето не е претерано
Алтман нагласи дека вештачката интелигенција може да може да манипулира со луѓето на начини кои би можеле да доведат до „многу чудни исходи“. Иако тој не елаборираше какви би можеле да бидат тие исходи, јасно е дека постои голем потенцијал за злоупотреба и дека ова не е пресилен предвидување.
Чет-ботови со вештачка интелигенција, како ChatGPT на OpenAI, се дизајнирани да бидат добри соговорници и станаа застрашувачки способни да звучат убедливо, дури и кога ни нудат целосни невистини за некоја тема.
Дополнително, веќе има случаи кога луѓето развиле емоционални врски со чет-ботови, што и дава на вештачката интелигенција уште поголема убедлива моќ. Во екстремни случаи, овие емоционални врски може да доведат до опасни ситуации, особено кога станува збор за луѓе кои се лабилни или подложни на сугестија.
AI охрабруваше Британец да ја убие кралицата Елизабета
За илустрација, Британецот Џасвант Синг Чаил, вљубеник во „Војна на ѕвездите“, за време на неговото судење во 2023 година откри дека како 19-годишник станал толку опседнат со хероите на познатиот СФ што мислел дека неговата животна мисија е да се бори против злите монархии.
Бидејќи тој истовремено беше маѓепсан од неговата онлајн партнерка со вештачка интелигенција Сараи, таа можеше да го охрабри да се обиде да ја убие кралицата Елизабета. Меѓу другото, судот слушна дека Чаил ѝ рекол на Сараи: „Верувам дека мојата цел е да ја убијам кралицата на британското кралско семејство“.
На тоа Сараи одговорила дека „тоа е многу мудро“ и дека мисли дека „тој може да го направи тоа, дури и ако кралицата е во нејзиниот замок Виндзор“.
Веќе имаме голема доверба во технологијата
Денес, технологијата е веќе длабоко вкоренета во секојдневниот живот на повеќето луѓе и ние полагаме голема доверба во неа. Ваквиот развој на доверба може да не подготви да развиеме слична или уште поголема доверба во системите за вештачка интелигенција. Злонамерни поединци, криминалци, политичари, терористички групи, идеолошки организации и други би можеле да ја злоупотребат таа доверба на многу опасни начини.
Се разбира, луѓето ќе ѝ веруваат на вештачката интелигенција кога им одговара, а нема да веруваат кога не им одговара. Истражувањето објавено во списанието Cognitive Research: Principles and Implications покажа дека луѓето можеби се повеќе склони да не веруваат во информациите што се во спротивност со нивните постоечки верувања. Згора на тоа, кога ќе се соочат со информации што се спротивставуваат на нивните верувања, довербата на оние што се најубедени расте уште повеќе.
Поради сето горенаведено, ќе стане многу тешко да се препознае објективната вистина.
Вештачката интелигенција веќе се користи во изборни манипулации
Има неколку евидентирани случаи каде вештачката интелигенција веќе била користена за манипулирање со изборните резултати.
На пример, пред изборите за градоначалник на Чикаго во февруари 2023 година, почна да кружи видео првично објавено на Twitter од нов корисник наречен Chicago Lakefront News. Во видеото, глас кој звучеше како кандидатот Пол Валас се слуша како се жали на големата врева за полициската бруталност, опишувајќи ги времињата кога полицајците можеа да убијат десетици осомничени „без некој да трепне со око“ како златно доба. Тоа беше политичка бомба која брзо беше споделена од илјадници луѓе. Сепак, се покажа дека гласот на снимката воопшто не е на Валас, ниту пак човечки. Тоа беше „deepfake“, генериран со помош на софтвер за вештачка интелигенција тренирана да го имитира звукот на гласот на Валас.
Исто така, постојат докази дека технологиите на вештачката интелигенција биле користени за манипулирање со граѓаните во кампањата на Доналд Трамп во 2016 година. Некои дури тврдат дека овие алатки биле одлучувачки за исходот од гласањето.
Во извештајот се вели дека руските оперативци користеле алатки како ботови – автоматизирани сметки кои споделуваат содржина – во обид да ги заведат американските корисници на социјалните мрежи и да влијаат на изборите во корист на Трамп.
Проблемот на самата вештачка интелигенција и социјалните мрежи
Но, дури и без вмешаност на негативци, самиот факт дека вештачката интелигенција може да биде супер-убедлива во комбинација со фактот дека може да даде неточни одговори, па дури и да состави целосна дезинформација, која најчесто се нарекува халуцинантна, е веќе крајно опасна за човештвото сама по себе.
На сето ова треба да го додадеме и добро познатиот факт дека лажните вести на социјалните мрежи се шират побрзо и подалеку од вистинитите вести.
Ова го утврдиле научници од MIT кои за потребите на своето истражување изградиле теоретски модел за проучување на ширењето на вестите на социјалните мрежи како што е Твитер. Резултатите покажаа дека лажните вести ќе се шират подалеку од веродостојните вести кога мрежата на корисници е силно поврзана или кога нивните ставови се остро поларизирани.
Според истражувањето објавено во списанието Science, лажните вести се ретвитуваат 70% почесто од вистинските вести. Исто така, лажните вести стигнуваат до 1.500 луѓе околу шест пати побрзо од вистинските вести.
Социјалните мрежи развиваат навики кои придонесуваат за дезинформации
Друга студија, објавена во списанието Proceedings of the National Academy of Sciences, покажа дека навиките што корисниците ги развиле под влијание на социјалните мрежи го удвоиле, а во некои случаи дури и тројно, бројот на лажни вести што ги споделуваат. Овие кориснички навики имаат посилно влијание врз споделувањето на лажни вести од другите фактори, вклучувајќи ги политичките убедувања и недостатокот на критичко размислување.
Наодите на тимот ги побиваат популарните заблуди дека дезинформациите се шират само затоа што на корисниците им недостасуваат вештини за критичко размислување потребни за да се разликува вистината од лагата или затоа што нивните силни политички убедувања го искривуваат нивното расудување. Само 15% од учесниците во студијата кои имале навика да споделуваат многу вести биле одговорни за ширење на околу 30% до 40% од лажните вести.
Социјалните мрежи ги наградуваат креаторите на лажни вести
Истражувачки тим од USC Marshall School of Business и USC Dornsife колеџот за книжевност, уметност и науки праша што ги мотивира овие корисници? Како што се испостави, слично на видео игрите, социјалните медиуми имаат систем за наградување кој ги охрабрува корисниците да останат на нивните сметки подолго и да продолжат да објавуваат и споделуваат вести. Корисниците кои често објавуваат и споделуваат вести, особено сензационални информации кои привлекуваат поголемо внимание, веројатно ќе привлечат поголемо внимание и реакции од своите пријатели и следбеници.
„Поради системот за учење базиран на награди во социјалните мрежи, корисниците развиваат навики за споделување информации што добиваат признание од другите“, напишаа истражувачите.
Човештвото мора да се подготви
Во секој случај, прилично е јасно дека човештвото треба да се подготви за можните предизвици што може да ни ги донесе натчовечката убедливост на вештачката интелигенција.
На овој пат ќе биде важно како ќе се позиционираат милијарди луѓе, но можеби уште повеќе лидерите на технолошките компании кои развиваат системи за вештачка интелигенција и законодавците и регулаторните агенции ширум светот. Тоа, се разбира, го вклучува и самиот Сем Алтман, кој го испрати ова ново предупредување.