Microsoft и OpenAI открија дека хакерите веќе користат големи јазични модели како што е ChatGPT за да ги подобрат и усовршат нивните постоечки сајбер напади.
Во една неодамнешна истрага, Microsoft и OpenAI открија обиди на руски, севернокорејски, ирански и кинески групи да користат ChatGPT за истражување на цели, подобрување на скриптите и развој на техники за социјално инженерство.
„Сајбер-криминалните групи, државните закани и други противници тестираат различни нови технологии за вештачка интелигенција (AI) за да се обидат да ја разберат нивната потенцијална вредност за нивните операции, како и безбедносните контроли што можеби ќе треба да ги заобиколат“, се вели.
Групата Strontium, која е поврзана со руското воено разузнавање, го користи LLM за „да ги разбере сателитските комуникациски протоколи, технологиите за радарско снимање и специфичните технички параметри. Хакерската група, позната и како APT28 или Fancy Bear, беше активна за време на руско-украинската војна, а претходно наводно се мешала и влијаела на претседателската кампања на Хилари Клинтон во 2016 година.
Групата исто така користеше LLM за да помогне во „основните задачи за скриптирање, вклучувајќи манипулација со датотеки, избор на податоци, регуларни изрази и мултипроцесирање, за потенцијално автоматизирање или оптимизирање на техничките операции“, според Microsoft.
Севернокорејската хакерска група Thallium користи LLM за истражување на ранливости и создавање содржина за фишинг кампањи. Иранските хакери Curium исто така користат LLM за да генерираат фишинг е-пошта, па дури и код дизајниран да избегне откривање од антивирусни апликации. Кинеските хакери поврзани со државата исто така користат LLM за истражување, скриптирање, преводи и усовршување на нивните постоечки алатки.
Постои загриженост за употребата на AI технологијата во сајбер напади, особено откако се појавија ВИ алатки како WormGPT и FraudGPT, кои помагаат да се создаде малициозна е-пошта и алатки за пробивање. Висок функционер на Националната агенција за безбедност предупреди дека хакерите користат ВИ за да ги направат нивните фишинг-мејлови поубедливи.
Microsoft и OpenAI не открија никакви „значајни напади“ користејќи LLM, но компаниите ги затворија сите сметки и средства поврзани со овие хакерски групи.
„Веруваме дека ова е важно истражување за објавување со цел да се разоткријат заканувачките потези и да се споделат информации за тоа како ги блокираме и се спротивставуваме“, рече Microsoft.
Додека употребата на ВИ во сајбер нападите се чини дека е моментално ограничена, Microsoft предупредува на идни случаи на употреба, како што е говорна измама.
„Измама со ВИ е уште една голема грижа. Синтезата на глас е пример, бидејќи примерокот на глас од три секунди може да го обучи моделот да звучи како кој било. Дури и нешто толку безопасно како гласот на вашата говорна пошта може да се користи за доволен примерок“, се додава.
Како што се очекуваше, решението на Microsoft е да користи АИ технологија како одговор на нападите со вештачка интелигенција.
„АИ може да им помогне на хакерите да додадат поголема софистицираност во нивните напади, а тие имаат ресурси да го направат тоа. Го видовме тоа со повеќе од 300 заканувачки актери кои Microsoft ги надгледува, а ние користиме ВИ за заштита, откривање и одговор“, вели Хома Хајатифар, главен менаџер за аналитика за откривање во Microsoft.
Microsoft развива Security Copilot, нов асистент со вештачка интелигенција наменет за професионалци за сајбер-безбедност за да ги идентификуваат проблемите и подобро да го разберат огромниот број сигнали и податоци што секојдневно се генерираат од алатките за сајбер-безбедност. Софтверскиот гигант работи и на својата софтверска безбедност по големите напади на облакот Azure, како и случаите во кои руски хакери ги шпионирале директорите на Microsoft.