Успешната репликација на OpenAI o1 моделот од страна на кинески истражувачи покренува дебати за Open Source технологиите и иднината на вештачката интелигенција.
Развојот на вештачката интелигенција (AI) напредува со неверојатна брзина, но што се случува кога високо софистицирани модели, како OpenAI o1 моделот, стануваат предмет на копирање? Според извештаите, кинески истражувачи од Универзитетот Фудан и Шангајската лабораторија за AI, со користење на реверзибилен инженеринг, успешно го разбрале и ископирале овој ChatGPT модел. Овој напредок претставува значаен чекор кон развојот на „Општа вештачка интелигенција“ (AGI), но отвора и важни прашања за безбедноста и етичноста на отворањето на вакви технологии.
OpenAI o1 моделот, познат како „Reasoner“, е клучен дел од петфазната стратегија на OpenAI на патот кон AGI. Овој модел се истакнува со способноста за решавање сложени проблеми и е базиран на три основни техники:
1.Reinforcement Learning (учење преку награди): моделот се подобрува преку наградување на точните одговори и казнување на грешките.
2.Search-Based Reasoning (пребарување решенија): систематски пристап за истражување на просторите на решенија за ефективно решавање на сложени проблеми.
3.Iterative Learning (итеративно учење): постојано усовршување преку циклуси на обука и евалуација.
Благодарение на овие техники, o1 моделот постигнува прецизност која често ги надминува човечките способности во специфични домени, отворајќи врати за напредни AI апликации.
Како кинеските истражувачи го копираа моделот?
Во декември 2024 година, тим истражувачи од Кина објави студија во која го опишува процесот на репликација на OpenAI o1 моделот. Со користење на слични техники како OpenAI – вклучувајќи учење преку награди, пребарување решенија и итеративно учење – тие развиле сопствени системи за размислување.
Една од нивните клучни иновации е користењето на „синтетички податоци“ за обука на моделот. Овој метод генерира разновидни и висококвалитетни сценарија кои симулираат сложени проблеми тешко репродуцирани во реалниот свет. Синтетичките податоци овозможиле побрза обука и поголема адаптабилност на моделот, опфаќајќи поширок спектар на задачи.
Преминот на OpenAI кон затворени системи
OpenAI во последните години се оддалечи од филозофијата на отворен код, преминувајќи кон позатворен, профитно ориентиран модел. Компанијата ги наведува безбедносните ризици и високите трошоци за развој како главни причини за оваа промена. Сепак, критичарите тврдат дека оваа стратегија ги поттикна земјите како Кина да користат реверзибилен инженеринг за да ги копираат технологиите и да ги направат достапни за пошироката јавност.
Кинеските истражувачи ја направиле нивната реплика достапна како отворен код, што дополнително го комплицира глобалниот пејзаж на AI развојот. Ова отвора важни прашања за балансот помеѓу безбедноста, конкуренцијата и етиката во развојот и дистрибуцијата на моќни AI технологии.
Репликацијата на OpenAI o1 моделот од страна на кинеските истражувачи претставува пресвртница во глобалната трка кон AGI. Додека иновации како синтетичките податоци го забрзуваат напредокот, поширокиот контекст на отворен или затворен пристап кон технологиите го нагласува значењето на клучните етички и безбедносни дилеми. Овој настан го најавува предизвикот на иднината, каде конкуренцијата и соработката мора да коегзистираат во светот на сè помоќната вештачка интелигенција, пишува Geeky Gadgets.