По долго време, Google започна со воведување на напредни AI функции во Gemini, кој сега може да го гледа содржината на екранот на корисникот или слика преку камерата.
Google започна со воведување на напредни AI функции во Gemini Live, што му овозможува на нивниот асистент во реално време да ја гледа содржината на екранот на корисникот или слика преку камерата на паметниот телефон и врз основа на тоа да одговара на прашања.
Како што пренесува The Verge, новите функции се базираат на технологијата прикажана минатата година под името Project Astra, а сега се достапни за корисниците на Gemini Advanced како дел од претплатничкиот пакет Google One AI Premium. Еден корисник на Reddit со мобилен телефон од Xiaomi објави видео што ги прикажува новите функции во пракса, кое го прикачуваме подолу.
Како што може да се види во видеото од Reddit, Gemini може да прочита сè што се наоѓа на почетниот екран, но не можеше да препознае кој Android launcher се користи. Исто така, препозна дека корисникот има апликација Code Editor, што потенцијално сугерира дека се занимава со програмирање. Кога беше замолен да го отвори YouTube, одговори дека тоа сè уште не е можно.
Од друга страна, Google претходно објави демонстрациско видео во кое е прикажано како корисник користи камера за да покаже парче керамика, а Gemini потоа ја одбира соодветната боја за боење. Официјалната демонстрација можете да ја погледнете подолу.



