Европскиот Закон за вештачка интелигенција, првата сеопфатна регулатива во светот за вештачка интелигенција, стапи на сила денеска.
Според соопштението на Европската комисија, Законот за вештачка интелигенција е дизајниран да гарантира дека вештачката интелигенција развиена и користена во ЕУ е доверлива и дека се воспоставени мерки за заштита на основните права на луѓето.
Целта на регулативата е да се воспостави хармонизиран внатрешен пазар за вештачка интелигенција во ЕУ, да се поттикне воведувањето на оваа технологија и да се создаде поволна средина за иновации и инвестиции.
Актот за вештачка интелигенција воведува напредна дефиниција за вештачка интелигенција заснована на безбедноста на производите и пристап заснован на ризик во ЕУ, кој е поделен во неколку категории.
Кога станува збор за категоријата со минимален ризик, во неа спаѓаат повеќето системи за вештачка интелигенција и тие не подлежат на обврски врз основа на овој акт поради нивниот минимален ризик за правата и безбедноста на граѓаните.
Од друга страна, кога станува збор за посебната ризична категорија на транспарентност, се наведува дека системите за вештачка интелигенција, како што се чет-ботови, мора јасно да им откријат на корисниците дека имаат интеракција со машина.
Се додава дека одредени содржини генерирани од вештачка интелигенција, вклучително и длабоки фејкови (синтетички медиуми во кои личноста на постоечка слика или видео се заменува со туѓа сличност) мора да бидат означени како такви, а корисниците мора да бидат известени кога се користат биометриски системи за категоризација или препознавање на емоции.
Дополнително, давателите на услуги ќе треба да дизајнираат системи на таков начин што синтетичката содржина на аудио, видео, текст и слика е означена во машински читлив формат и може да се препознае како вештачки генерирана или манипулирана.
Што се однесува до третата категорија на високоразузнавачки системи идентификувани како високоризични, тие ќе мора да исполнат строги барања, кои вклучуваат системи за ублажување на ризикот, висококвалитетни сетови на податоци, евиденција на активности, детална документација, јасни информации за корисниците, човечки надзор и висока еластичност, точност и сајбер безбедност.
Ваквите високоризични системи за вештачка интелигенција вклучуваат системи што се користат за регрутирање или за проценка дали некој ги исполнува условите за заем или за управување со автономни роботи.
Кога станува збор за неприфатлив ризик, се наведува дека ќе бидат забранети системи за вештачка интелигенција кои се сметаат за јасна закана за основните човекови права.
Ова вклучува системи или апликации со вештачка интелигенција кои манипулираат со човечкото однесување за да ја надминат слободната волја на корисникот, како што се играчките кои користат гласовна помош за да поттикнат опасно однесување кај малолетниците, системи кои им дозволуваат на владите и компаниите да вршат „социјално бодување“ и одредени апликации на предвидливо полициско работење.
Дополнително, некои апликации на биометриски системи ќе бидат забранети, како што се системи за препознавање емоции на работното место и некои системи за категоризација на луѓе или биометриска идентификација на далечина во реално време на јавни места за цели на спроведување на законот (со неколку исклучоци).
Актот за вештачка интелигенција, исто така, воведува правила за таканаречените модели на вештачка интелигенција за општа намена, кои се високо способни модели дизајнирани да извршуваат широк опсег на задачи како што е генерирање текст сличен на човекот.
Земјите-членки на ЕУ имаат рок до 2 август 2025 година да назначат национални надлежни органи да ја надгледуваат примената на правилата за системите за вештачка интелигенција и да вршат активности за надзор на пазарот.
Клучно тело за имплементација на Законот за вештачка интелигенција на ниво на ЕУ ќе биде Канцеларијата на Комисијата за вештачка интелигенција, која исто така ќе ги спроведува правилата за моделите со вештачка интелигенција за општа намена.
Дополнително, три советодавни тела ќе го поддржат спроведувањето на правилата.
Поголемиот дел од правилата за AI-Act ќе стапат на сила на 2 август 2026 година.
Сепак, забраните за системи со вештачка интелигенција за кои се смета дека претставуваат неприфатлив ризик ќе се применуваат по шест месеци, додека правилата за таканаречените модели на вештачка интелигенција за општа намена ќе важат по 12 месеци.