Ética de la IA

Demasiados consejos y juntas asesoras todavía están formadas principalmente por personas con sede en Europa o Estados Unidos.

por Abhishek Gupta y Victoria Heath

Las organizaciones y corporaciones internacionales están compitiendo para desarrollar pautas globales para el uso ético de la inteligencia artificial. Las declaraciones, los manifiestos y las recomendaciones están inundando Internet. Pero estos esfuerzos serán inútiles si no tienen en cuenta los contextos culturales y regionales en los que opera la IA.

Se ha demostrado repetidamente que los sistemas de inteligencia artificial causan problemas que afectan de manera desproporcionada a los grupos marginados mientras benefician a unos pocos privilegiados. Los esfuerzos de ética mundial de la IA que se están llevando a cabo hoy, de los cuales hay docenas, tienen como objetivo ayudar a todos a beneficiarse de esta tecnología y evitar que cause daños. En términos generales, lo hacen mediante la creación de pautas y principios que deben seguir los desarrolladores, financiadores y reguladores. Podrían, por ejemplo, recomendar auditorías internas de rutina o requerir protección para la información de identificación personal de los usuarios.

Ética de la IA
Ética de la IA

Creemos que estos grupos tienen buenas intenciones y están haciendo un trabajo valioso. La comunidad de la IA debería, de hecho, ponerse de acuerdo sobre un conjunto de definiciones y conceptos internacionales para la IA ética. Pero sin más representación geográfica, producirán una visión global de la ética de la IA que refleje las perspectivas de las personas en solo unas pocas regiones del mundo, particularmente en América del Norte y el noroeste de Europa.

Este trabajo no es fácil ni sencillo. “Equidad”, “privacidad” y “prejuicio” significan cosas diferentes (pdf) en diferentes lugares. Las personas también tienen expectativas dispares de estos conceptos dependiendo de sus propias realidades políticas, sociales y económicas. Los desafíos y riesgos que plantea la IA también difieren según la ubicación de cada uno.

Si las organizaciones que trabajan en la ética global de la IA no reconocen esto, corren el riesgo de desarrollar estándares que, en el mejor de los casos, carecen de sentido e ineficaces en todas las regiones del mundo. En el peor de los casos, estos estándares defectuosos conducirán a más sistemas y herramientas de inteligencia artificial que perpetúan los prejuicios existentes y son insensibles a las culturas locales.

En 2018, por ejemplo, Facebook tardó en actuar sobre la difusión de información errónea en Myanmar que, en última instancia, condujo a abusos contra los derechos humanos. Una evaluación (pdf) pagada por la empresa encontró que esta supervisión se debió en parte a las pautas de la comunidad de Facebook y las políticas de moderación de contenido, que no abordaron las realidades políticas y sociales del país.

Existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA.

Para prevenir tales abusos, las empresas que trabajan en pautas éticas para sistemas y herramientas impulsados ​​por IA deben involucrar a los usuarios de todo el mundo para ayudar a crear estándares apropiados para gobernar estos sistemas. También deben ser conscientes de cómo se aplican sus políticas en diferentes contextos.

A pesar de los riesgos, hay una clara falta de diversidad regional en muchos consejos asesores, paneles de expertos y consejos de IA designados por organizaciones internacionales líderes. El grupo asesor de expertos del proyecto AI for Children de Unicef, por ejemplo, no tiene representantes de las regiones con la mayor concentración de niños y adultos jóvenes, incluidos Oriente Medio, África y Asia.

Desafortunadamente, tal como está hoy, todo el campo de la ética de la IA corre grave riesgo de limitarse a idiomas, ideas, teorías y desafíos de un puñado de regiones, principalmente América del Norte, Europa Occidental y Asia Oriental.

Esta falta de diversidad regional refleja la concentración actual de la investigación en IA (pdf): el 86% de los artículos publicados en conferencias de IA en 2018 se atribuyeron a autores en Asia oriental, América del Norte o Europa. Y menos del 10% de las referencias enumeradas en los artículos de IA publicados en estas regiones son artículos de otra región. Las patentes también están muy concentradas: el 51% de las patentes de IA publicadas en 2018 se atribuyeron a América del Norte.

Aquellos de nosotros que trabajamos en la ética de la IA haremos más daño que bien si permitimos que la falta de diversidad geográfica del campo defina nuestros propios esfuerzos. Si no tenemos cuidado, podríamos terminar codificando los sesgos históricos de la IA en pautas que deformarán la tecnología para las generaciones venideras. Debemos comenzar a priorizar las voces de los países de ingresos bajos y medios (especialmente las del “ Sur global ”) y las de las comunidades históricamente marginadas.

Los avances en la tecnología a menudo han beneficiado a Occidente al mismo tiempo que han exacerbado la desigualdad económica, la opresión política y la destrucción ambiental en otros lugares. Incluir países no occidentales en la ética de la IA es la mejor manera de evitar que se repita este patrón.

La buena noticia es que hay muchos expertos y líderes de regiones subrepresentadas para incluir en dichos grupos asesores. Sin embargo, muchas organizaciones internacionales parecen no esforzarse mucho para solicitar la participación de estas personas. El recién formado Consorcio de Ética Global de IA, por ejemplo, no tiene miembros fundadores que representen instituciones académicas o centros de investigación de Oriente Medio, África o América Latina. Esta omisión es un claro ejemplo de patrones coloniales (pdf) que se repiten.

Si vamos a construir sistemas de IA éticos, seguros e inclusivos en lugar de involucrarnos en un ” lavado ético “, primero debemos generar confianza con aquellos que históricamente han sido perjudicados por estos mismos sistemas. Eso comienza con un compromiso significativo.

En el Montreal AI Ethics Institute , donde ambos trabajamos, intentamos adoptar un enfoque diferente. Organizamos reuniones de ética de IA digital, que son debates abiertos a los que puede unirse cualquier persona con conexión a Internet o teléfono. Durante estos eventos, nos hemos conectado con un grupo diverso de personas, desde un profesor que vive en Macao hasta un estudiante universitario que estudia en Mumbai.

Mientras tanto, grupos como Partnership on AI, reconociendo la falta de diversidad geográfica en AI de manera más amplia, han recomendado cambios a las leyes de visas y han propuesto políticas que facilitan a los investigadores viajar y compartir su trabajo. Maskhane , una organización de base, reúne a investigadores africanos de procesamiento del lenguaje natural para reforzar el trabajo de traducción automática que ha descuidado los idiomas no dominantes.

Es alentador ver que las organizaciones internacionales intentan incluir perspectivas más diversas en sus debates sobre la IA. Es importante que todos recordemos que la diversidad regional y cultural es clave para cualquier conversación sobre la ética de la IA. Hacer de la IA responsable la norma, en lugar de la excepción, es imposible sin las voces de personas que aún no tienen poder e influencia.

Abhishek Gupta es el fundador del Instituto de Ética de IA de Montreal y un ingeniero de aprendizaje automático en Microsoft, donde se desempeña en la Junta de IA Responsable de CSE. Victoria Heath es investigadora del Instituto de Ética de IA de Montreal e investigadora principal de la Asociación de la OTAN de Canadá.

Fuente: https://www.technologyreview.com/2020/09/14/1008323/ai-ethics-representation-artificial-intelligence-opinion/

Tagged:

Deja una respuesta