Un grupo de científicos de la Universidad de Berkeley ha optado por crear un “framework” de percepción robótica basado en la tactilidad. Para ello, basándose en investigaciones previas de la Universidad Carnegie Mellon, crearon una IA capaz de vincular un conjunto de observaciones físicas con objetos concretos.

En palabras de los investigadores; “la percepción humana es inherentemente multimodal, cuando vemos un juguete de peluche, nos imaginamos lo que nuestros dedos sentirían al tocar la superficie suave, cuando sentimos el borde de las tijeras, podemos imaginar en nuestra mente no sólo qué es, sino también su forma y dimensiones”.

Pero la tarea de los investigadores es estudiar el modo en que un agente robótico podría aprender algo similar a las asociaciones multimodales y no está exento de dificultades.

Esto es porque los sensores táctiles carecen de la capacidad de “visión global” de los sensores visuales, y sus lecturas tienden a ser mucho más difíciles de interpretar. Para superar estos obstáculos, el robot está equipado con dos sensores de contacto GelSight (cada uno en un extremo de la mano robótica) que se deforma, y que incluyen una cámara capaz de visualizar esa deformación.

Eso genera información visual que una red neuronal convolucional destinada al análisis de imágenes es capaz de recopilar y analizar. En total, se recopilaron datos relativos a 98 objetos diferentes, 80 de los cuales se usaron para entrenar previamente la red neuronal.

Los autores defienden que se trata de un primer paso prometedor para lograr que los robots realicen tareas que hasta ahora sólo estaban a mano para las personas. El robot está equipado con dos sensores de contacto GelSight que se deforma y que incluyen una cámara capaz de visualizar esa deformación.

 

mano-robotica