Раней на гэтым тыдні Google DeepMind выпусціў Gemini Robotics-ER-1.6, новую мадэль бачання і мовы, якія дапамагаюць робатам разумець наваколле. Каб прадэманстраваць свае магчымасці, кампанія Boston Dynamics, якая заключыла пагадненне аб выкарыстанні Gemini у сваіх гуманоідных робатах, апублікавала відэа, на якім яе робаты-сабакі выкарыстоўваюць мадэль для паказанняў тэрмометра падчас агляду прамысловага аб'екта.
Нягледзячы на прывабныя дэманстрацыі, новая мадэль робататэхнікі Google толькі павялічылася ў параўнанні з папярэднімі мадэлямі ў плане яе здольнасці вызначаць, калі яна скончыла заданне з дапамогай адзін канал камеры, у адпаведнасці з тэстамі Google. Але пры прыёме некалькіх патокаў камеры мадэль паказала паляпшэнне. Google кажа, што гэта важна, таму што многія сучасныя робататэхнічныя ўстаноўкі, напрыклад, на заводах або складах, выкарыстоўваюць некалькі відаў камеры, напрыклад, камеру з верхняга экрана і камеру, усталяваную на руцэ робата. Робат павінен мець магчымасць выкарыстоўваць усе гэтыя камеры, каб стварыць паслядоўнае разуменне таго, што ён робіць, і ведаць, калі задача выканана.