Вештачката интелигенција сè почесто ги преплавува социјалните мрежи со реалистични видео снимки, а експертите откриваат кој е најсигурниот траг по кој можете да препознаете дека гледате лажна, AI-генерирана содржина.
Вашиот фид на социјалните мрежи станува сè позаситен со видео снимки генерирани од вештачка интелигенција — често толку уверливи што речиси е невозможно да се разликуваат од реалните. Сепак, постои еден сигурен индикатор што може да помогне да го разоткриете лажњакот: лошиот квалитет на сликата.
Кога видеото изгледа како да е снимано со „компир“
Ако некое видео ви изгледа заматено, зрнесто или претерано компресирано, големи се шансите дека не е вистинско. Професорот Хани Фарид од Универзитетот во Калифорнија, Беркли, пионер во дигиталната форензика и основач на компанијата GetReal Security, објаснува дека експертите најпрво го анализираат токму овој детал — квалитетот на сликата.
„Тоа е едно од првите предупредувања на кои обрнуваме внимание“, вели Фарид. „Кога видеото е премногу нејасно, тоа може да биде обид да се прикријат траговите на вештачката интелигенција.“
Иако денешните AI алатки можат да создадат исклучително реалистични и мазни снимки, многу креатори намерно ја намалуваат резолуцијата за да прикријат аномалии — неприродни движења, искривени шари на облека или лица што изгледаат премногу „мазни“.

Вирални примери кои измамија милиони
Во изминатите неколку месеци, низа AI видеа станаа вирални и измамија милиони гледачи: зајци кои скокаат на трамболина, „романтична“ средба во метрото во Њујорк, па дури и проповедник со антикапиталистичка беседа — сите се покажаа како вештачки креации. Заеднички именител? Сите изгледаа како снимени со лоша камера.
Според Фарид, три фактора се клучни кога проценувате дали видеото е генерирано: резолуција, квалитет и должина. Повеќето AI видеа се кратки — обично меѓу шест и десет секунди — бидејќи генерирањето подолги снимки бара многу повеќе ресурси и носи поголем ризик од грешки.
Намерно лош квалитет како трик
Интересно е што измамниците често намерно го намалуваат квалитетот на видеото. „Ќе направам лажно видео, потоа ја намалувам резолуцијата и додавам компресија што ги замаглува деталите. Така исчезнуваат трагите што би можеле да ја откријат вештачката интелигенција“, објаснува Фарид.
Со други зборови, кога видеото изгледа како да е снимано со стар телефон или безбедносна камера, тоа може да биде свесна одлука на авторот — не за да изгледа реално, туку за да ја сокрие вистината.
Следниот чекор: не им верувајте на сопствените очи
Професорот Метју Стам од Универзитетот Дрексел предупредува дека овој совет има рок на траење. „За две години, овие визуелни траги речиси целосно ќе исчезнат“, вели тој. „AI веќе може да создава слики што е невозможно да се разликуваат од реални. Човечкото око веќе не е сигурен судија.“
Наместо да бараме „грешки“ во сликите, експертите предлагаат нов пристап: проверка на потеклото на содржината. Технолошките компании веќе развиваат стандарди кој би овозможиле верификација на автентичноста на фотографиите и видеата, вклучувајќи дигитални „отпечатоци“ што потврдуваат дека материјалот навистина е снимен со камера, а не генериран од алгоритам.

Иднината на довербата во дигиталното доба
Дигиталниот истражувач Мајк Колфилд истакнува дека видеата наскоро ќе имаат ист статус како текстуалната содржина — не можеме да им веруваме само затоа што „изгледаат“ уверливо. „Најважниот фактор станува потеклото — кој го објавил видеото, каде се појавило и дали го потврдил доверлив извор“, објаснува тој.
Професор Стам заклучува: „Ова можеби е најголемиот предизвик за информациската безбедност во 21 век. Не смееме да се откажеме — потребни ни се образование, технологија и соработка за да ја заштитиме вистината во дигиталниот простор.“
Во свет каде вештачката интелигенција сè почесто манипулира со слики и видеа, единственото вистинско оружје станува — критичкото размислување. Ако видеото изгледа премногу замаглено, премногу совршено или премногу сензационално за да биде вистинито, запрете за момент. Можеби гледате дело на алгоритам, а не на камера, пишува BBC.


