Logo van The Verge

-Onderzoek

Google's robots leren nu zelfstandig denken en handelen

Copyright theverge
Foto: VandaagAI.nl

Google DeepMind's nieuwe robotmodellen kunnen complexe taken uitvoeren door meerdere stappen vooruit te denken en zelfs het internet te raadplegen voor hulp.

In het kort:

De doorbraak zit in de combinatie van twee nieuwe modellen die robots echte probleemoplossing bijbrengen in plaats van alleen maar instructies opvolgen.

  • Gemini Robotics-ER 1.5 analyseert de omgeving en zoekt informatie op via Google Search om taken te begrijpen
  • Gemini Robotics 1.5 vertaalt deze bevindingen naar concrete acties die de robot kan uitvoeren
  • Robots kunnen nu complexe opdrachten aan zoals was sorteren op kleur, koffers inpakken op basis van weersvoorspellingen, of afval scheiden volgens lokale regelgeving

Het grote plaatje:

Carolina Parada, hoofd robotica bij Google DeepMind, legt uit dat dit een fundamentele verschuiving markeert van eenvoudige instructieopvolging naar echte intelligentie.

  • "De modellen tot nu toe konden heel goed één instructie tegelijk uitvoeren. Met deze update gaan we van één instructie naar daadwerkelijk begrip en probleemoplossing voor fysieke taken," aldus Parada.
  • Het systeem stelt robots in staat om verschillende digitale tools te gebruiken, waaronder websearches die specifiek zijn afgestemd op lokale vereisten.

Achter de schermen:

Een opvallende eigenschap is dat robots nu van elkaar kunnen 'leren', zelfs als ze compleet verschillende vormen hebben. Google DeepMind ontdekte dat taken die werden aangeleerd aan de ALOHA2-robot met twee mechanische armen naadloos werkten op zowel de bi-arm Franka robot als Apptronik's humanoïde robot Apollo.

Bronnen

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.

Meer onderzoek