1. Inicio
  2. Opinión
  3. Comunidad de blogueros
  4. Nuevos algoritmos para que los robots domésticos vean mejor

CAPACIDAD COGNOSCITIVA

Nuevos algoritmos para que los robots domésticos vean mejor

Mejoran el sistema de identificación visual de reconocimiento robótico al añadir más perspectivas a un viejo algoritmo de rastreo en el uso de robots para tareas domésticas.

Hechosdehoy / Glenys Álvarez
fjrigjwwe9r1_articulos:cuerpo
El sistema visual humano es exquisito. Sus conexiones con el cerebro le permiten formular los patrones alrededor de cualquier elemento y reconocerlo detalladamente; de hecho, un humano es capaz de distinguir entre dos gemelos idénticos si los conoce bien. Reconocer patrones también conforma la generalización, hay sistemas que si cambias un pequeño detalle no podrá reconocer el mismo objeto con un elemento distinto. Ciertamente, el reconocimiento es uno de los elementos básicos que se trabajan hoy en el mundo de los robots y la inteligencia artificial. Es regalarle al sistema artificial la oportunidad de observar una imagen e identificarla, una de las habilidades más fascinantes en los humanos, que hasta la proveemos con valor y significado.
En los últimos años se ha conseguido avanzar un poco en esta rama de la tecnología, aunque aún estamos muy lejos de dominarla con la capacidad cognoscitiva del ser humano. Para que un robot funcione perfectamente dentro de la casa, un sistema de reconocimiento efectivo sería perfecto, por el momento, los sistemas aunque rústicos son controlados por distintos algoritmos que adoptan modelos y representaciones específicas para capturar elementos e identificarlos dentro de una base de datos.
“El proceso de reconocimiento puede ser tanto generativo como discriminativo y se realiza emparejando el objeto en la imagen o imágenes con las representaciones y modelos del objeto en la base de datos”, explica Wei-Hsuan Chang, del Departamento de Ingeniería Eléctrica de la Universidad Tamkang en Taiwán. 
Ahora, un equipo de investigadores en el Laboratorio de Ciencia de la Computación e Inteligencia Artificial en el Instituto de Tecnología de Massachusetts (MIT), ha agregado perspectivas a unos algoritmos que ya utilizaban, en sistemas robóticos con suficiente movilidad. El grupo indica que sus robots, una vez agregadas estas perspectivas, reconocieron cuatro veces más objetos y a la misma vez redujeron significativamente los errores en la identificación. Algunas veces, aseguran, son hasta diez veces más rápidos que los sistemas con una sola perspectiva. 
“Si sólo lo ves desde un único punto de vista hay un montón de cosas que podrían hacer falta, a lo mejor es el ángulo de la iluminación o algo que bloquea el objeto provocando así un error sistemático en el detector”, explica Lawson Wong, autor principal del nuevo estudio. “Ahora, una forma del sistema evitar eso es moverse y observarlo desde un punto de vista diferente”.
El equipo se centró en sistemas para robots domésticos, considerando escenarios donde en una mesa tengas muchos objetos distintos tirados ahí en ningún orden específico. Si el robot va a ser eficiente, tendrá que reconocer el objeto que necesita entre todos los demás. En esta ocasión, los investigadores utilizaron de 20 a 30 imágenes de objetos distintos. Tomaron un algoritmo que tiene décadas funcionando y se encarga de sistemas de rastreo donde evalúa distintas hipótesis cuando se enfrenta a un objeto que debe reconocer. Para mantener la matemática a su menor nivel, los investigadores adoptaron una técnica simplificada. 
“Supongamos que el algoritmo ha identificado tres objetos desde una perspectiva y cuatro desde otra. La forma más matemáticamente precisa sería la de considerar cada posible conjunto de combinaciones entre los dos grupos de objetos: el conjunto que coincide con los objetos 1, 2 y 3 en la primera perspectiva, a los objetos 1, 2 y 3 en la segunda; el conjunto que coincide con los objetos 1, 2, y 3 en la primera a los objetos 1, 2, y 4 en la segunda, y así sucesivamente.

En nuestro algoritmo, sin embargo, consideramos cada objeto en el primer grupo por separado y evaluamos su probabilidad de mapeo sobre un objeto en el segundo grupo. Así el objeto 1 en el primer grupo podría asignar a los objetos 1, 2, 3, o 4 del segundo, lo mismo ocurriría con el objeto 2, y así sucesivamente. Una vez más, con las posibilidades de error y el factor de oclusión, este enfoque requiere de sólo 20 comparaciones en vez de las 304 que requería anteriormente”, explicó Wong.

Aunque el sistema está aún extremadamente lejos de nuestra capacidad cognoscitiva de reconocimiento, presenta posibilidades. A pesar de que muchas veces el robot se equivoca tomando decisiones completamente absurdas, a lo mejor estemos frente a 32 errores, es decir, más de 20, pero mucho menos que 304, lo que nos acerca más a robots que puedan ayudarnos con un sinnúmero de tareas domésticas. 
 

Glenys Álvarez, psicóloga y periodista científica dominicana, reside en Pittsburgh, Estados Unidos, y publica muchos temas interesantes de ciencia en Editora Neutrina y Órbitas Científicas.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Fill out this field
Fill out this field
Por favor, introduce una dirección de correo electrónico válida.
You need to agree with the terms to proceed

twitter facebook smarthphone

ARCHIVO DEL AUTOR

Menú