Anksčiau šią savaitę „Google DeepMind“ išleido „Gemini Robotics-ER-1.6“ – naują vizijos ir kalbos modelį, padedantį robotams suprasti aplinką. Siekdama parodyti savo galimybes, „Boston Dynamics“, sudariusi susitarimą naudoti „Gemini“ savo humanoidiniuose robotuose, paskelbė vaizdo įrašą apie savo šunis robotus, naudojančius modelį termometro rodmeniui nuskaityti per pramonės objektą.
Nepaisant akį traukiančių demonstracinių versijų, naujasis „Google“ robotikos modelis pastebėjo tik laipsnišką pranašumą, palyginti su ankstesniais modeliais. etalonų. Tačiau naudojant kelis fotoaparato kanalus, modelis pagerėjo. „Google“ teigia, kad tai svarbu, nes daugelyje šiuolaikinių robotų sąrankų, pavyzdžiui, gamyklose ar sandėliuose, naudojami keli kameros vaizdai, pavyzdžiui, viršutinė kamera ir kamera, sumontuota ant roboto rankos. Robotas turi turėti galimybę naudoti visas šias kameras, kad susidarytų nuoseklų supratimą apie tai, ką jis daro, ir žinotų, kada užduotis baigta.