Այս շաբաթվա սկզբին Google DeepMind-ը թողարկեց Gemini Robotics-ER-1.6 նոր տեսլականը և լեզվի մոդելը, որը կօգնի ռոբոտներին հասկանալ իրենց շրջապատը: Իր հնարավորությունները ցուցադրելու համար Boston Dynamics-ը, որը համաձայնել է օգտագործել Gemini-ն իր մարդանման ռոբոտներում, հրապարակեց իր ռոբոտ-շների տեսահոլովակը արդյունաբերական օբյեկտի ստուգման ժամանակ ջերմաչափ կարդալու համար:
Չնայած աչք գրավող ցուցադրություններին, Google-ի նոր ռոբոտաշինության մոդելը միայն այն ժամանակ էր, երբ իր նախորդ մոդելի չափը գերազանցեց իր նոր մոդելը: առաջադրանք՝ օգտագործելով մեկ տեսախցիկի հոսք՝ համաձայն Google-ի չափանիշների: Բայց երբ մի քանի տեսախցիկի լրահոս է վերցնում, մոդելը բարելավում է ցույց տվել: Դա կարևոր է, ասում է Google-ը, քանի որ այսօր շատ ռոբոտաշինություններ, օրինակ՝ գործարաններում կամ պահեստներում, օգտագործում են տեսախցիկի բազմաթիվ տեսարաններ, ինչպիսիք են վերևի տեսախցիկը և ռոբոտի ձեռքին տեղադրված տեսախցիկը: Ռոբոտը պետք է կարողանա օգտագործել այդ բոլոր տեսախցիկները՝ ստեղծելու համահունչ պատկերացում այն մասին, թե ինչ է անում և իմանա, թե երբ է առաջադրանքն ավարտված: