[stextbox id=”info”]Pranav Mistry es el inventor de SixthSense, un dispositivo usable que permite un nuevo tipo de interacciones entre el mundo real y el mundo de la información. Actualmente es estudiante de postgrado en el Fluid Interfaces Group en el MIT’s Media Lab.[/stextbox]
Crecimos interactuando con los objetos físicos a nuestro alrededor. Hay un enorme número de ellos que usamos cada día. A diferencia de nuestros dispositivos informáticos, estos objetos son mucho más divertidos de usar. Cuando se habla de objetos, otra cosa viene automáticamente añadida a estos, y eso son los gestos: cómo manipulamos estos objetos, cómo usamos estos objetos en la vida cotidiana. Usamos gestos no sólo para interactuar con estos objetos, pero también los usamos para interactuar entre nosotros. Un gesto de “¡Namaste!”, quizás, para mostrar respeto hacia alguien, o quizás — en India no necesito enseñarle a un niño que significa esto “cuatro carreras” en cricket. Viene como parte de nuestro aprendizaje diario.
Por eso, estoy muy interesado, desde el inicio, en el cómo — Cómo nuestro conocimiento sobre los objetos y gestos cotidianos, y cómo usamos estos objetos, pueden ser útiles para nuestras interacciones con el mundo digital. En lugar de usar un teclado y un ratón, ¿Por qué no puedo utilizar mi computador del mismo modo en el que interactúo con el mundo físico?
Comencé esta exploración hace unos ocho años atrás, y comenzó literalmente con un ratón en mi escritorio. En vez de usarlo en mi computador, lo abrí. La mayoría de ustedes estará consciente, que en esos días, el ratón venia con una bola dentro, y tenía 2 rodillos que guiaban al computador en la dirección en la que se está moviendo la bola. y, a su vez, donde el ratón se está moviendo. Yo estaba interesado en estos dos rodillos, y quería más de ellos, entonces tome prestado otro ratón de un amigo — nunca lo devolví — y ahora tenía cuatro rodillos. Curiosamente, lo que hice con estos rodillos fue, básicamente, los saque de los ratones y los coloque en una línea. Tenía unas cuerdas, poleas y algunos resortes. Lo que obtuve fue básicamente un dispositivo gestual que actúa como un sensor de movimiento} hecho a un precio de 2 dólares. Entonces, cualquier movimiento que haga en el mundo físico es replicado dentro del mundo digital sólo usando este pequeño aparato que hice, hace unos ocho años atrás, en el 2000.
Por el interés que tenía en integrar estos dos mundos, Pensé en las notas adhesivas. Pensé, “¿Por qué no conectar la interfaz física de una nota adhesiva a una digital?” Un mensaje escrito en una nota adhesiva a mi mamá en papel puede venir como un mensaje de texto, o un recordatorio de reuniones que se sincroniza inmediatamente con mi calendario digital — una lista de tareas que se sincroniza automáticamente contigo. Pero también puedes buscar en el mundo digital, o quizás hacer una pregunta, diciendo, “¿Cual es la dirección del Dr. Smith?” y este pequeño sistema lo imprime — entonces funciona como un sistema de entrada y salida, hecho solamente de papel.
En otra exploración, pensé en hacer un lápiz que pueda dibujar en tres dimensiones. Entonces, implemente este lápiz que puede ayudar a diseñadores y arquitectos no sólo a pensar en tres dimensiones, sino a poder dibujarlo entonces es más intuitivo de ese modo.
Luego pensé, “¿Por qué no hacer un Mapa de Google, pero en el mundo físico?” En vez de escribir una palabra clave para encontrar algo, coloco mis objetos encima. Si coloco mi tarjeta de embarque, me mostrará dónde está la puerta de mi vuelo. Una taza de café te mostrara dónde encontrar más café, o dónde puedes botar la taza.
Estas fueron algunas de las primeras exploraciones que hice porque la meta era conectar estos dos mundos a la perfección. Entre todos estos experimentos, había una cosa en común: Trataba de traer una parte del mundo físico al mundo digital. Tomaba partes de los objetos, o la intuición de la vida real, y las traía al mundo digital, porque el objetivo era hacer nuestras interfaces informáticas más intuitivas.
Pero entonces me di cuenta que nosotros los humanos no estamos interesados en la computación. En lo que estamos interesados es en la información. Queremos saber sobre las cosas. Queremos saber sobre las cosas dinámicas que están sucediendo.
Entonces pensé, el año pasado — al comienzo del año pasado — Comencé a pensar, “¿Por qué no tomar este concepto en el sentido inverso?” Quizás, “¿Cómo sería, sí tomo mi mundo digital y pinto el mundo físico con esa información digital?” Porque los pixeles están, ahora, atrapados en estos dispositivos rectangulares que caben en nuestros bolsillos. ¿Por qué no remover esta barrera y llevarlos a mis objetos cotidianos, a la vida cotidiana para que no necesite aprender este nuevo lenguaje para interactuar con esos pixeles?
Entonces, para concretar este sueño, Tuve que ponerme un enorme proyector en la cabeza. Creo que es por eso que esto se llama proyector montado en la cabeza, ¿no? Lo tomé muy literalmente, y agarre mi casco de bicicleta, y le hice un pequeño corte para que el proyector se ajustara correctamente. Ahora, qué puedo hacer — puedo aumentar el mundo alrededor mío con esta información digital.
Pero después, me di cuenta que también quería interactuar con esos pixeles digitales. Así que puse una pequeña cámara, que actúa como un ojo digital. Luego, hicimos una versión mucho mejor, orientada al consumidor, que muchos de ustedes ahora conocen como dispositivo SixthSense.
Pero lo más interesante sobre esta tecnología en particular es que cargas el mundo digital contigo donde sea que vayas. Puedes usar cualquier superficie, cualquier muro a tu alrededor, como una interface. La cámara esta rastreando todos tus gestos. Lo que sea que estés haciendo con tus manos, comprende ese gesto. Y, si se fijan, hay marcadores de colores que usamos en la versión inicial. Pueden comenzar a pintar sobre cualquier muro. Se paran frente a un muro, y pintan sobre ese muro. Pero no estamos rastreando un sólo dedo. Damos la libertad de usar ambas manos, y pueden usar ambas para acercarse o alejarse de un mapa sólo pellizcando. La cámara esta — sólo, obteniendo todas las imágenes — está haciendo el reconocimiento de los bordes y del color y muchos otros algoritmos están funcionando dentro. Técnicamente, es un poco más complejo, pero proporciona una salida que es mucho más intuitiva de usar, en algún sentido.
Pero estoy más emocionado por el hecho, que puedas llevarlo fuera. En vez de sacar tu cámara del bolsillo, sólo debes hacer el gesto de tomar una foto y toma una foto por ti.
(Aplausos)
Gracias.
Y luego puedo encontrar una pared, dónde sea, y comenzar a navegar entre las fotos o quizás, “OK, quiero modificar esta foto un poco y enviarla como un email a un amigo.” Estamos viendo una era en la que la computación se fusionara con el mundo físico. Y, por supuesto, si no tienen una superficie, pueden usar su palma para operaciones simples. Aquí, estoy marcando un número telefónico usando mi mano. La cámara no sólo esta comprendiendo los movimientos de tu mano, pero, es capaz de entender que objetos estas sosteniendo con la mano.
Lo que estamos haciendo acá — por ejemplo, en este caso, la cubierta del libro se compara con miles, o quizás millones de libros en línea, y encuentra qué libro es. Una vez que tiene esa información, encuentra más comentarios sobre él, o quizás el New York Times tiene una revisión en sonido, que pueden oír, en un libro físico, comentarios como sonido. (“Una famosa charla en la Universidad de Harvard …”)
Esta es la visita de Obama la semana pasada al MIT. (“… y particularmente quiero agradecerle a dos sobresalientes profesores del MIT …”) Yo estaba viendo la transmisión en vivo de su charla, afuera, sobre el periódico. Su periódico le mostrara información climatológica actualizada en vez de tener que actualizarla — yendo a su computador por ejemplo para hacerlo, ¿correcto?
(Aplausos)
Cuando vuelvo, puedo usar mi ticket de embarque para revisar que tan retrasado esta mi vuelo, porque en ese preciso momento, No quiero abrir mi iPhone, y revisar un icono en particular. Y creo que esta tecnología no sólo cambiara la manera — Si. (Risas) También cambiara la forma en la que interactuamos con las personas, no sólo en el mundo físico. La parte divertida es, voy en el metro de Boston, jugando pong dentro del tren en el piso, ¿verdad? (Risas) Y creo que la imaginación es el único límite de lo que puedes pensar cuando este tipo de tecnología se mezcla con la vida real.
Pero estarán de acuerdo que no todo nuestro trabajo es sobre el mundo físico. Hacemos mucha contabilidad y edición y cosas de ese tipo; ¿Qué pasa con eso? Y muchos de ustedes están emocionados sobre la próxima generación de Tablet PC que saldrá al mercado. Pero, en lugar de esperar por eso, Hice mi propio dispositivo, usando sólo una hoja de papel. Lo que hice fue remover la cámara — Todas las cámaras web tienen un micrófono dentro, Le quite el micrófono, y luego sólo se adhiere — hice un clip a partir del micrófono — y lo adjunto a un pedazo de papel, cualquier papel que encuentren. Ahora el sonido del tacto me dice exactamente cuando estoy tocando el papel. Pero la cámara esta rastreando cuando mis dedos se mueven.
Obviamente, se pueden ver películas. (“Buenas tardes. Mi nombre es Russell …”) (“… y soy un explorador de la naturaleza en Tribe 54.”)
Y se pueden jugar juegos. (Motor de automóvil) Aquí, la cámara comprende cómo están sosteniendo el papel. y jugando un video juego de carreras. (Aplausos)
Muchos de ustedes ya lo deben haber pensado, OK, se puede navegar. Si. Por supuesto que se puede navegar por cualquier sitio web. o pueden hacer todo tipo de actividades informáticas sobre un pedazo de papel dónde sea que lo necesiten. También, estoy interesado en cómo podemos llevar esto a una manera más dinámica. Cuando vuelvo a mi escritorio, sólo tomo esa información de regreso a mi escritorio y así pudo usar mi computador principal.
(Aplausos)
¿Y por qué solo computadores? Podemos jugar con papeles. El mundo del papel es muy interesante para jugar. Aquí, tomo una parte de un documento y pongo acá una segunda parte de otro lugar — y estoy modificando la información que tengo por acá. Y digo, “OK, esto se ve bien, déjame imprimirlo.” Ahora tengo una impresión de eso, y ahora — El flujo de trabajo es más intuitivo que la forma en que lo hacíamos hace 20 años, en vez de cambiar entre estos dos mundos.
Ahora, como pensamiento final, creo que integrar la información en los objetos cotidianos no sólo nos ayudara a deshacernos de la brecha digital, el vació entre estos 2 mundos, pero también nos ayudara, en alguna medida, a permanecer humanos, a estar más conectados a nuestro mundo físico. Y nos ayudara, a no ser maquinas sentados frente a otras maquinas.
Eso es todo. Gracias.
(Aplausos)
Gracias.
(Aplausos)
Chris Anderson: Entonces, Pranav, primero que nada, eres un genio. Esto es increíble, realmente. ¿Que harás con esto? ¿Hay una empresa planeada? ¿O es investigación perpetua, o qué?
Pranav Mistry: Hay muchas empresas — empresas patrocinantes del Media Lab — interesados en llevar esto hacia adelante de una u otra forma. Compañías como operadores de telefonía móvil quieren llevar esto de una forma diferente a las ONG`s en India, que están pensando, “¿Por qué sólo tener un ‘Sexto Sentido’? Deberíamos tener un ‘Quinto Sentido’ para la gente que carece de un sentido y no pueden hablar. Esta tecnología puede usarse para que hablen de una manera diferente quizás con un sistema de altavoces.”
CA; ¿Cuales son tus planes? ¿Te quedaras en el MIT, o harás algo con esto?
PM: Estoy tratando de hacer esto más disponible a la gente para que cualquiera pueda desarrollar su dispositivo SixthSense porque el hardware no es difícil de producir, o difícil de construir el propio. Proveeremos todo el código abierto, comenzando quizás el próximo mes.
CA: Código abierto..!!? . Wow.
(Aplausos)
CA: ¿Volverás a la India con algo de esto, en algún momento?
PM: Claro. Si, si, por supuesto.
CA: ¿Cuales son tus planes? ¿MIT? ¿India? ¿Cómo dividirás tu tiempo de aquí en adelante?
PM: Hay mucha energía. Mucho aprendizaje. Todo este trabajo que ustedes han visto es sobre mi aprendizaje en India. Y ahora, si ustedes ven más sobre el costo-efectividad: este sistema cuesta 300 dólares comparado con 20,000 dólares que cuestan las superficies táctiles, o algo por el estilo. ¿O incluso el sistema gestual a base del ratón de 2 dólares en sus momento costaba 5,000 dólares? De hecho — Se lo presenté, en una conferencia, al Presidente Abdul Kalam, en ese momento, y entonces el dijo, “OK, nosotros deberíamos usarlo en el Centro Bhabha de Investigación Atómica para revisarlo.” Estoy emocionado por la posibilidad de traer la tecnología a las masas en vez de mantener esa tecnología en el laboratorio.
(Aplausos)
CA: Basado en las personas que hemos visto en TED, Diría que eres uno de los dos o tres mejores inventores en el mundo ahora. Es un honor tenerte presente en TED. Muchas gracias. Es fantástico.
(Aplausos)
Artículo tomado íntegro de Ted, Ideas que vale la pena difundir.
El video está en inglés pero vale la pena verlo aún si no entiendes por los efectos mostrados.
Comentarios