Ризикот што го носи вештачката интелигенција (AI) е ист како и егзистенцијалните и безбедносните ризици од доаѓањето на нуклеарната ера, предупредуваат истражувачите на вештачката интелигенција и бараат вештачката интелигенција да биде предмет на слична законска регулатива како нуклеарната енергија. Но, има проблеми.
Сем Алтман, извршен директор на OpenAI, повика на создавање на федерална агенција која може да дава лиценци за создавање модели со вештачка интелигенција над одреден праг на способност. Ова, објаснува Тајм, е слично на тоа како операторите на нуклеарни постројки мора да бидат лиценцирани од нуклеарниот регулатор, а како дел од условите за лиценца, нуклеарните оператори мора да ги следат регулаторните безбедносни упатства и законската обврска да ги намалат ризиците колку што е разумно изводливо.
Од друга страна, Алтман го критикуваше законот на ЕУ за вештачка интелигенција како „пререгулиран“ и рече дека неговата OpenAI не е компанија со висок ризик.
На овој начин, според магазинот, се претставени две спротивставени пораки. Една од нив е дека иднината на способностите на вештачката интелигенција претставува толку значаен ризик што е потребна ексклузивна шема за регулаторна лиценца на нуклеарно ниво. Од друга страна, постоечките системи не бараат никаква регулатива, и покрај добро документираните штети кои се сметаат за незначителни. И тука се распаѓаат аналогиите со нуклеарната безбедност.
Безбедносното инженерство, дисциплината која ја гарантира безбедноста на нуклеарните системи, е изградена врз премисата дека неуспесите или несоодветното однесување на системот, без разлика колку е мало, може да доведат до катастрофални настани. Сметајте дека сите компоненти на нуклеарниот систем, без разлика дали се ураниум или плутониум, хардвер и софтвер, до бетонот, се индивидуално и ригорозно регулирани. Овие елементи одделно не претставуваат закана од нуклеарна катастрофа, но во оркестрација доведуваат до појава на контролирана реакција на нуклеарна фисија. Спротивно на тоа, неуспесите во гореспоменатата оркестрација може да каскадираат во катастрофални или ризични настани.
Нашата неспособност да ги спречиме тековните штети од вештачката интелигенција, како што се алгоритамска дискриминација, дезинформации и сајбер-напади, заедно со недостаток на технички и менаџерски способности за контрола или мерење на механизмите на вештачката интелигенција што ги предизвикуваат овие штети, значи дека едноставно немаме и нема да има техничка основа за справување со ризиците од поголеми размери кои вештачката интелигенција хипотетички би можела да ги предизвика. А тоа е сериозна егзистенцијална закана, заклучува „Тајм“.