por Shelly Fan
Pregunta: ¿Cuál es la parte del cuerpo humano que se conoció una vez como la “consumación de toda perfección como instrumento”?
Respuesta: La mano.
Nuestras manos son hazañas increíblemente complejas de ingeniería evolutiva. Los sensores densamente empaquetados proporcionan sensaciones táctiles complejas y precisas. Docenas de articulaciones se sinergizan para brindarnos una destreza notable. Una conciencia de “sexto sentido” de dónde están nuestras manos en el espacio las conecta con la mente, lo que hace posible abrir una puerta, tomar una taza y servir café en la oscuridad total basándose únicamente en lo que sienten.
Entonces, ¿por qué los robots no pueden hacer lo mismo?
En un nuevo artículo de Science, el Dr. Subramanian Sundaram de Boston y la Universidad de Harvard sostiene que es hora de repensar el toque robótico. Los científicos han soñado durante mucho tiempo con diseñar manos robóticas artificialmente con la misma destreza y retroalimentación que tenemos. Ahora, después de décadas, estamos al borde de un gran avance gracias a dos avances importantes. Uno, entendemos mejor cómo funciona el tacto en los humanos. Dos, tenemos la mega potencia computacional llamada aprendizaje automático para recapitular la biología en silicio.
Las manos robóticas con sentido del tacto, y el cerebro de IA para igualarlo, podrían modificar nuestra idea de los robots. En lugar de ser novedades encantadoras, aunque algo torpes, los robots equipados con manos parecidas a las de un humano son mucho más capaces de realizar tareas rutinarias (preparar comida, doblar la ropa) y misiones especializadas como cirugía o rescate. Pero las máquinas no son las únicas que se benefician. Para los humanos, las manos protésicas robóticas equipadas con un toque artificial preciso, sensible y de alta resolución es el próximo gran avance para vincular a la perfección un cerebro biológico con una mano mecánica.
Esto es lo que presentó Sundaram para llevarnos a ese futuro.
¿Cómo funciona Touch, de todos modos?
Permítanme comenzar con algunas malas noticias: la ingeniería inversa de la mano humana es realmente difícil. Está repleto de más de 17,000 sensores sintonizados solo con fuerzas mecánicas, sin mencionar los sensores de temperatura y dolor. Estos “receptores” de fuerza se basan en distorsiones físicas (flexión, estiramiento, rizado) para enviar una señal al cerebro.
¿Las buenas noticias? Ahora tenemos una imagen mucho más clara de cómo funciona el toque biológico. Imagina una moneda presionada en tu palma. Los sensores incrustados en la piel, llamados mecanorreceptores, capturan esa presión y la “traducen” en señales eléctricas. Estas señales pasan a través de los nervios de la mano hasta la columna vertebral y, finalmente, llegan al cerebro, donde se interpretan como “tacto”.
Al menos, esa es la versión simple, pero demasiado vaga y no particularmente útil para recapitular el tacto. Para llegar allí, necesitamos acercarnos.
Las células de tu mano que recolectan señales táctiles, llamadas neuronas táctiles de “primer orden” (ingresa la broma de Star Wars) son como árboles al revés. Las ramas intrincadas se extienden desde sus cuerpos, enterradas profundamente en la piel, hasta una vasta área de la mano. Cada neurona tiene su propio pequeño dominio llamado “campos receptores”, aunque algunos se superponen. Al igual que los gobernadores, estas neuronas administran una región semidedicada, de modo que cualquier señal que transfieran a los superiores (médula espinal y cerebro) se integre en realidad desde múltiples sensores a una gran distancia.
Se vuelve más complicado. La piel misma es una entidad viva que puede regular sus propios sentidos mecánicos a través de la hidratación. El sudor, por ejemplo, suaviza la piel, lo que cambia la forma en que interactúa con los objetos circundantes. ¿Alguna vez ha intentado poner un guante en una mano sudorosa? Es mucho más una lucha que una seca, y se siente diferente.
En cierto modo, las neuronas táctiles de la mano juegan un juego de código Morse. A través de diferentes frecuencias de pitidos eléctricos, pueden transferir información sobre el tamaño, la textura, el peso y otras propiedades de un objeto, al tiempo que le piden al cerebro retroalimentación para controlar mejor el objeto.
Biología a máquina
Transformar todas las características más importantes de nuestras manos en máquinas es absolutamente abrumador. Pero los robots tienen una ventaja: no están restringidos al hardware biológico. A principios de este año, por ejemplo , un equipo de Columbia diseñó un dedo robótico de “sensación” utilizando emisores de luz y sensores superpuestos de una manera ligeramente similar a los campos receptores. Luego, las distorsiones en la luz se analizaron con aprendizaje profundo para traducirlas en la ubicación y la fuerza del contacto.
Aunque es una desviación radical de nuestro propio sistema eléctrico, el intento del equipo de Columbia se basó claramente en la biología humana. No estan solos. “Se está logrando un progreso sustancial en la creación de máscaras electrónicas suaves y elásticas”, dijo Sundaram, muchas de las cuales pueden detectar fuerzas o presión, aunque actualmente todavía son limitadas.
Lo que es prometedor, sin embargo, es el “emocionante progreso en el uso de datos visuales”, dijo Sundaram. La visión por computadora se ha beneficiado enormemente de las cámaras ubicuas y los grandes conjuntos de datos, lo que hace posible entrenar algoritmos potentes pero ávidos de datos, como las redes neuronales convolucionales profundas (CNN).
Al aprovechar su éxito, esencialmente podemos agregar “ojos” a las manos robóticas, una superpotencia que los humanos no podemos imaginar. Aún mejor, las CNN y otras clases de algoritmos se pueden adoptar fácilmente para procesar datos táctiles. Juntos, una mano robótica podría usar sus ojos para escanear un objeto, planificar sus movimientos para agarrarlo y usar el tacto como retroalimentación para ajustar su agarre. Tal vez finalmente tengamos un robot que rescata fácilmente el teléfono que se dejó caer tristemente en un inodoro de compostaje. O algo mucho más grandioso para beneficiar a la humanidad.
Dicho esto, depender demasiado de la visión también podría ser una ruina. Tome un robot que escanea una amplia zona de escombros en busca de señales de vida durante una respuesta a un desastre. Si el tacto se basa en la vista, entonces tendría que mantener una línea de visión continua en un entorno complejo y dinámico, algo en lo que la visión por computadora no funciona bien, al menos por ahora.
Un camino neuromórfico hacia adelante
¿Demasiado Debbie Downer? ¡Te cubro la espalda! Es difícil exagerar los desafíos, pero lo que está claro es que las herramientas emergentes de aprendizaje automático pueden abordar los desafíos del procesamiento de datos. Para la visión, está destilando imágenes complejas en “políticas de control procesables”, dijo Sundaram. Para el tacto, es fácil imaginar lo mismo. Junte los dos juntos, y eso es una súper mano robótica en ciernes.
En el futuro, argumenta Sundaram, debemos adherirnos de cerca a cómo la mano y el cerebro procesan el tacto. Secuestrar nuestra “maquinaria táctil” biológica ya ha resultado útil. En 2019, un equipo utilizó una interfaz nervio-máquina para que los amputados controlaran un brazo robótico, el brazo DEKA LUKE, y sintieran lo que sentían la extremidad y la mano unida. La presión sobre el brazo y la mano de LUKE activó una interfaz neuronal implantada, que atacó los nervios restantes de una manera que el cerebro procesa como tacto. Cuando la IA analizó datos de presión similares a las neuronas táctiles biológicas, la persona pudo identificar mejor diferentes objetos con los ojos cerrados.
“Los avances en hardware (y software) táctiles neuromórficos influirán fuertemente en el futuro de las prótesis biónicas, una aplicación convincente de manos robóticas”, dijo Sundaram, y agregó que el siguiente paso es aumentar la densidad de los sensores.
Dos temas adicionales hicieron la lista de progreso hacia un futuro cyborg. Una es la longevidad, en el sentido de que los sensores de un robot deben poder producir de manera confiable grandes cantidades de datos de alta calidad, algo que aparentemente es mundano, pero es una limitación práctica.
El otro va todo en uno. En lugar de solo un sensor de presión, necesitamos algo que capture la gran cantidad de sensaciones táctiles. Desde la ligereza como una pluma hasta un golpe fuerte, desde las vibraciones hasta las temperaturas, una arquitectura similar a un árbol similar a nuestras manos ayudaría a organizar, integrar y procesar los datos recopilados de esos sensores.
Hace solo una década, la robótica controlada por la mente se consideraba un cielo azul, una fantasía neurotecnológica de metas ambiciosas. Ahora tenemos la oportunidad de “cerrar el ciclo”, del pensamiento al movimiento para tocar y volver al pensamiento, y hacer algunos robots rudos en el camino.
Crédito de la imagen: PublicDomainPictures de Pixabay
Fuente: https://singularityhub.com/2020/11/17/this-is-how-well-engineer-artificial-touch/