No se deje llevar por la publicidad: el aprendizaje automático no hace que las computadoras se parezcan a las personas. No importa cuán “inteligentes” se vuelvan, todavía nos necesitan.
por TOM SIMONIT E
A estas alturas, debe haber escuchado las buenas noticias sobre nuestro salvador, la inteligencia artificial. Te hace lucir mejor en selfies, previene la ceguera e incluso puede convertir el agua en una cerveza más sabrosa. Los gigantes tecnológicos y los gobiernos dicen que vivimos en una era dorada de la IA. ¡Despliega los coches autónomos!
La verdad es que la mayoría de las veces que escuchas el término inteligencia artificial, la tecnología específica en el trabajo se llama aprendizaje automático. A pesar del nombre, se basa en gran medida en la enseñanza humana.
En el siglo XX, los programadores de computadoras tenían que conseguir que sus cargas electrónicas hicieran cosas al tocar líneas de código que especificaban exactamente lo que se necesitaba hacer. El aprendizaje automático aleja parte de ese trabajo de los humanos, lo que obliga a la computadora a resolver las cosas por sí misma.
Los avances recientes en software que lee imágenes médicas son un buen ejemplo. Los programas de visión por computadora solían depender de que las personas especificaran qué características deberían buscar, por ejemplo, formas reveladoras o sombras que indicaban un hueso roto en una radiografía. Funcionó, pero no tan bien.
El aprendizaje automático ahora puede obtener resultados mucho mejores, rivalizando con la precisión de los médicos humanos. En lugar de especificar qué debe buscar su software, los programadores lo “entrenan” con una colección de imágenes de ejemplo. Las empresas que trabajan en el aprendizaje automático para el cuidado de la salud, como Google , crean vastas colecciones de imágenes médicas etiquetadas por médicos. Los algoritmos de aprendizaje automático se sueltan en estos conjuntos de datos visuales, buscando patrones estadísticos para descubrir qué características de una imagen sugieren que merece la etiqueta o diagnóstico particular que se le ha dado.
Esta receta básica también funciona para otros tipos de datos como texto y audio. Es por eso que ya no vemos muchos correos electrónicos no deseados , y es la forma en que Alexa de Amazon puede entender los comandos gritados en la habitación.Nuevas computadoras, viejos trucos
El aprendizaje automático suena moderno, pero es una de las ideas más antiguas de la informática. En 1959, una computadora que llenaba una habitación llamada Perceptron marcó un hito en la inteligencia artificial cuando aprendió a distinguir formas como triángulos y cuadrados.
Se construyó sobre un enfoque de aprendizaje automático llamado redes neuronales artificiales, que también impulsan la mayoría de los proyectos de inteligencia artificial que acaparan los titulares en la actualidad. Las redes neuronales en la nube o incluso en nuestros teléfonos están detrás de asistentes virtuales y filtros de fotos ridículos .Tom Simonite cubre la inteligencia artificial para WIRED.
Las redes neuronales antiguas y nuevas se basan en matemáticas inspiradas en modelos simples de cómo funcionan las neuronas en el cerebro. Alexa no se inventó en 1959 porque, poco después del debut de Perceptron, los investigadores abandonaron en su mayoría las redes neuronales; no estaba claro cómo podrían ampliarse para abordar problemas más grandes. La técnica pasó décadas como un interés marginal en la informática.
Alrededor de 2012 , la pequeña comunidad que todavía trabajaba en el enfoque de red neuronal para el aprendizaje automático mostró nuevos e innovadores resultados en el reconocimiento de voz e imágenes. De repente, el aprendizaje automático se convirtió en lo más candente en tecnología. Este año, tres investigadores que provocaron esa revolución ganaron el premio Turing , el premio Nobel de informática.El aprendizaje automático no es inteligente
El resurgimiento de las redes neuronales ha hecho que el aprendizaje automático forme parte de la vida cotidiana. Todos los planes de las grandes empresas de tecnología para el futuro dependen de ello, ya sean las ambiciones de Alphabet de predecir la insuficiencia renal antes de que suceda o el concepto de Amazon de tiendas sin caja .
Todo eso es realmente emocionante. Las computadoras son cada vez más capaces de interactuar con el mundo y comprenderlo, y de nosotros . Pero no se deje llevar por la exageración: el aprendizaje automático no hace que las computadoras se parezcan en nada a las personas.
Es cierto que los bots impulsados por el aprendizaje automático pueden jugar a juegos de mesa y videojuegos complicados mejor que el humano más hábil. Sin embargo, requieren una construcción cuidadosa, y su forma estadística de aprendizaje hace que sus talentos sean estrechos e inflexibles . Los seres humanos pueden pensar en el mundo utilizando conceptos abstractos y pueden mezclar esos conceptos para adaptarlos a nuevas situaciones. El aprendizaje automático no puede.
Esa rigidez limita lo que la IA ha podido hacer por nosotros. Es una de las razones por las que los vehículos autónomos luchan con situaciones de tráfico inesperadas. Las habilidades estrictas del aprendizaje automático también pueden producir sorpresas divertidas o desagradables.
Los bots de juegos con tecnología de aprendizaje automático han encontrado formas de piratear las simulaciones en las que se estaban probando . El software de procesamiento de imágenes y texto a veces aprende a repetir o amplificar los estereotipos sociales sobre raza y género. Las máquinas pueden aprender, pero aún necesitan una instrucción cuidadosa por parte de los humanos.
Tom Simonite es un escritor senior de WIRED en San Francisco que cubre la inteligencia artificial y sus efectos en el mundo. Anteriormente, fue jefe de la oficina de San Francisco en MIT Technology Review y escribió y editó la cobertura tecnológica en la revista New Scientist de Londres. Simonite recibió una licenciatura de … Leer más
Fuente: https://www.wired.com/story/how-we-learn-machine-learning-human-teachers/