На меѓународната конференција за машинско учење беше претставен документ кој зборува за опасностите од развојот на автономно оружје напојувано од вештачка интелигенција
Со децении војската користела автономно оружје како мини, торпеда и ракети, кои работат врз основа на едноставни реактивни повратни информации без човечка контрола. Смртоносниот воен арсенал сега е дополнет со автономно оружје напојувано со вештачка интелигенција. Влегуваме во нова ера на војување во која таквото оружје претставува конкретна закана за научниот напредок и основните истражувања, предупредува Канака Рајан, вонреден професор по невробиологија на Институтот „Блаватник“, при Медицинскиот факултет на „Харвард“.
Оружјето напојувано со вештачка интелигенција може да доведе до геополитичка нестабилност, а неговиот развој би можел да влијае врз невоените истражувања, во академската средина и индустријата – ова е премисата на трудот претставен од Рајан и нејзините колеги на Меѓународната конференција за машинско учење во 2024 година.
Истражувачите од Харвард посветиле особено внимание на тоа како овие оружја може да им олеснат на земјите да се вклучат во конфликт, како невоените научни истражувања за вештачка интелигенција може да бидат цензурирани, или вклучени во поддршката на развојот на овие оружја и како војските можат да користат автономна вештачка интелигенција во технологија за намалување или пренасочување на човечката одговорност при одлучувањето.
– Голем дел од сегашниот развој на оружје со погон на вештачка интелигенција е насочен кон отстранување на човечките војници од опасност, што само по себе е хумана работа. Меѓутоа, ако малку војници загинат во офанзивна војна, тоа ја ослабува врската помеѓу војувањето и човечката цена. Политички станува полесно да се започнат војни, што пак може да доведе до повеќе смртни случаи и севкупно уништување – вели Рајан.
-Бидејќи автономната технологија напојувана со вештачка интелигенција станува централна за планирањето на националната одбрана ширум светот, можеме да очекуваме слични ограничувања и во невоените истражувања. И ова би ги попречило основните истражувања за вештачката интелигенција, вредните цивилни апликации во здравството, научните истражувања и меѓународната соработка – вели Рајан, која предупредува и на нејасниот степен на автономија и човечки надзор во системите за оружје, кој на крајот ги носи одлуките.
Овие системи стануваат сè покомплексни и помоќни, и бидејќи времето на реакција во војната мора да биде побрзо, можеме да очекуваме дека се повеќе и повеќе одлуки ќе бидат препуштени на оружјето. Од друга страна, постоењето на „човек во јамката“ во автономно оружје напојувано со вештачка интелигенција, би можело да ги затиши истражувачите да мислат дека системот е етички и според воените стандарди, иако всушност не ги вклучува луѓето во одлучувањето, предупредува Рајан.
-Иако има уште многу работа да се направи за да се создаде оружје со погон на вештачка интелигенција, повеќето од основните алгоритми се веќе предложени или се во фокусот на големите академски и индустриски истражувања, мотивирани од невоени апликации како што се самоуправувачките возила – вели Рајан, која се залага за поголема одговорност на научниците и истражувачите во етичкото водење на примената на овие технологии.
– Некои научници повикаа на целосна забрана на воената вештачка интелигенција. Ова е морално идеално, но не е реално; вештачката интелигенција е премногу корисна за воени цели, за да се постигне меѓународен консензус потребен за да се воспостави или спроведе таква забрана. Треба да ги забраниме и регулираме најтешките класи на оружја со вештачка интелигенција и да поставиме ограничувања без премин што е можно поскоро – вели Рајан, која верува дека треба да се развие оружје со погон на вештачка интелигенција што ги зголемува, а не ги заменува човечките војници.