Ian Fasel, profesor asistente e investigador de ciencias de la computación en la universidad de Arizona, ha recibido dos buenos apoyos económicos para enseñarle a los robots a aprender conceptos en base al familiar concepto de prueba y error de los humanos, directamente de su entorno, en lugar de requerir que una persona los programe, así como para buscar nueva información tan eficientemente como sea posible.
Los humanos hemos entrenado robots para construir vehículos, aviones, medición automática de la presión sanguínea en los hospitales e incluso a jugar ping pong.
Pero los robots no tienen conciencia de sí mismos, y realmente no entienden aquello que hacen y para lo que fueron programados. Por consiguiente, los robots son incapaces de resolver un problema nuevo -y es eso lo que conduce la investigación que realiza Ian Fasel.
“La técnica que prevalece para reconocer objetos es que se almacenen en una base de datos ejemplos de autos, peatones, caras, etc,” dijo Fasel. “Es difícil encontrar una buena cantidad de ejemplos y prepararlos en un algoritmo de aprendizaje”.
Fasel y su equipo están construyendo un sistema de robot que pueda aprender conceptos por sí mismo. “Mucho de nuestro lenguaje (como humanos) es metafórico. Lo que pensamos es que si los robots pueden entender los conceptos sensoriales y motores, no cometerán errores básicos cuando hablemos con ellos,” dijo Fasel.
Puedes leer el artículo completo en inglés aquí.
Comentarios