In het kort:
De doorbraak zit in de combinatie van twee nieuwe modellen die robots echte probleemoplossing bijbrengen in plaats van alleen maar instructies opvolgen.
- Gemini Robotics-ER 1.5 analyseert de omgeving en zoekt informatie op via Google Search om taken te begrijpen
- Gemini Robotics 1.5 vertaalt deze bevindingen naar concrete acties die de robot kan uitvoeren
- Robots kunnen nu complexe opdrachten aan zoals was sorteren op kleur, koffers inpakken op basis van weersvoorspellingen, of afval scheiden volgens lokale regelgeving
Het grote plaatje:
Carolina Parada, hoofd robotica bij Google DeepMind, legt uit dat dit een fundamentele verschuiving markeert van eenvoudige instructieopvolging naar echte intelligentie.
- "De modellen tot nu toe konden heel goed één instructie tegelijk uitvoeren. Met deze update gaan we van één instructie naar daadwerkelijk begrip en probleemoplossing voor fysieke taken," aldus Parada.
- Het systeem stelt robots in staat om verschillende digitale tools te gebruiken, waaronder websearches die specifiek zijn afgestemd op lokale vereisten.
Achter de schermen:
Een opvallende eigenschap is dat robots nu van elkaar kunnen 'leren', zelfs als ze compleet verschillende vormen hebben. Google DeepMind ontdekte dat taken die werden aangeleerd aan de ALOHA2-robot met twee mechanische armen naadloos werkten op zowel de bi-arm Franka robot als Apptronik's humanoïde robot Apollo.