La IA aprende de nosotros y hereda nuestros defectos. Descubre cómo los datos sesgados alimentan algoritmos injustos y descubre tácticas prácticas para un diseño de IA responsable y diverso.

por Emily Barnes

Los sistemas de inteligencia artificial están entrenados para hacer cosas increíbles como traducir idiomas, recomendar películas, resumir documentos e incluso simular conversaciones. Pero aquí está el truco: todo lo que la IA sabe, lo aprendió de nosotros. Esto significa que si nuestro historial está sesgado, nuestros datos también lo están, y la IA también. Mucha gente cree que la IA toma decisiones “objetivas” o “racionales”, pero refleja los patrones, preferencias y problemas de las personas y los sistemas que la crearon.

Antes de explorar cómo el sesgo se introduce en la IA, conviene comprender su origen. La inteligencia artificial no es una tecnología única, sino un concepto amplio que se refiere a máquinas que actúan de forma similar a la inteligencia humana.

El aprendizaje automático (ML), un componente clave de la IA, comenzó en la década de 1950. Los algoritmos de ML aprenden de los datos para realizar tareas sin instrucciones explícitas. En la década de 2010, surgió el aprendizaje profundo, que utiliza redes neuronales que simulan cómo el cerebro humano procesa la información. Poco después llegó la IA generativa, que genera nuevo contenido a partir de lo aprendido. Hoy en día, entramos en la era de la IA explicable, donde los modelos intentan aclarar su razonamiento a los usuarios humanos. En el horizonte se encuentra la IA agencial , capaz de tomar decisiones con una intervención humana limitada. Puede adaptarse y aprender de sus propios resultados, algo que los sistemas actuales no hacen de forma autónoma.

Hitos que hicieron posible la IA actual

La IA como generaciones de tecnología

¿Por qué esto importa?

Es importante porque las perspectivas occidentales, eurocéntricas y machistas que moldearon los modelos de aprendizaje automático en las décadas de 1950, 1960 y 1970 siguen arraigadas en las herramientas actuales. Imaginen si ese familiar o compañero de trabajo —todos conocemos a alguien— supervisara la selección, limpieza y validación de todos los datos utilizados para guiar sus decisiones diarias. Probablemente puedan imaginar cómo resultaría. En muchos sentidos, esa fue precisamente la persona que sentó las bases de la IA temprana.

Donde comienza el sesgo

La primera ficha de dominó: cómo las decisiones iniciales inclinan el sistema

Considere un modelo simple de aprendizaje automático (ver gráfico). Cada etapa en la que interviene un ser humano, desde la selección de datos hasta la creación del algoritmo y el ajuste de su configuración, es susceptible de sesgo.

Si una universidad crea una herramienta de IA con 20 años de datos de admisión de una época en la que el 85% de su alumnado era blanco y masculino, es probable que la IA refleje esa desigualdad. De igual manera, si el mismo algoritmo se entrena con datos de una empresa predominantemente musulmana, podría distorsionar o no adaptarse a otras poblaciones. La IA no crea nuevas normas ni valores, sino que recicla lo que se le da. Perpetúa el mismo problema una y otra vez.

Lo que come la IA determina lo que piensa

Los sistemas de IA, especialmente los que procesan el lenguaje, se entrenan con grandes cantidades de datos de internet. Esto incluye libros, sitios web, redes sociales y artículos de noticias. La mayor parte de este contenido proviene de países occidentales de habla inglesa, lo que significa que la IA aprende desde un espectro limitado de perspectivas.

La IA debe aprenderse. Los humanos seleccionan los datos de entrenamiento, deciden qué problemas debe resolver la IA y definen qué significa “éxito”. Si un algoritmo de contratación se entrena con 20 años de currículums, y la mayoría son de hombres, podría priorizar automáticamente a los candidatos masculinos, aunque sea involuntariamente.

Una vez que la IA aprende patrones, los repite. Un algoritmo de contratación, ahora retirado, utilizado por Amazon ofrece un ejemplo ilustrativo: comenzó a degradar los currículos que incluían la palabra “mujeres”, como en “club de ajedrez femenino” o “universidad femenina”. Esto no se debió a que el algoritmo estuviera diseñado para ser discriminatorio, sino a que se entrenó con diez años de datos de contratación con una marcada tendencia hacia los hombres. El modelo aprendió que los currículos con lenguaje orientado a los hombres eran históricamente favorecidos y, a su vez, incorporó ese patrón en su lógica de toma de decisiones.

Sesgo cotidiano en las herramientas que utilizamos

El sesgo está presente en todas partes donde se utiliza la IA: en dispositivos domésticos, salud, educación, viajes, defensa, finanzas y más. Consideremos asistentes de IA como Alexa y Siri: la mayoría usa voces femeninas y están diseñados para gestionar recordatorios, calendarios y listas del hogar. Son útiles en roles tradicionalmente asignados a las mujeres, pero no tienen la capacidad de expresar emociones ni contraatacar, por mucho que un niño les pida que canten “Feliz Cumpleaños”.

Watson for Oncology de IBM tuvo un rendimiento deficiente en hospitales no occidentales debido a su entrenamiento con datos estadounidenses. Las mujeres de color han experimentado tasas más altas de cesáreas forzadas debido a los modelos entrenados con poblaciones mayoritariamente blancas. ChatGPT genera con frecuencia imágenes de hombres blancos con traje cuando se le pide que visualice a un profesor o profesional de TI. Si se le pide “atuendo profesional femenino”, a menudo muestra faldas tubo y blusas, y rara vez incluye alternativas con base cultural, como saris o hiyabs.

Estos ejemplos no son aleatorios. Los estándares de “profesionalismo” se han definido desde hace mucho tiempo según normas eurocéntricas, y la IA refleja esos valores predeterminados. Los peinados, la ropa, los acentos y las expresiones culturales que se salen de estas normas suelen etiquetarse como “poco profesionales” o incluso excluirse de los datos de entrenamiento.

El sesgo de la IA no es un error: está incorporado

Mucha gente asume que el sesgo en la IA es un fallo técnico, algo que se puede solucionar con un mejor código. Pero el problema más profundo reside en los datos y en las decisiones humanas que los sustentan: quién los seleccionó, quién los limpió, quién los etiquetó y quién decidió que estaban “listos”. El sesgo en la IA no es simplemente un error; es una herencia, como un sistema de creencias que se transmite silenciosamente de generación en generación. Estos sistemas reflejan estructuras de poder históricas: quiénes tenían voz, quiénes establecían los estándares y quiénes construyeron las instituciones que aún configuran nuestro mundo actual.

La IA se entrena con la cultura, pero solo con una parte de ella. Los modelos amplifican las perspectivas con mayor visibilidad digital y de datos. Cuando se excluyen, tergiversan o se reducen los idiomas no occidentales a marcos occidentales, la IA se convierte en una herramienta que refuerza la desigualdad en lugar de eliminarla. Y sí, cada desarrollador, científico de datos, anotador y tester tiene el poder de introducir sesgos o trabajar activamente para reducirlos en las tecnologías que usamos a diario.

¿Qué podemos hacer respecto al sesgo en la IA?

Para corregir el sesgo de la IA, debemos preguntarnos y actuar en consecuencia:

  • ¿Quién está representado en los datos de entrenamiento? Los conjuntos de datos de entrenamiento deben reflejar la diversidad de las poblaciones a las que el sistema está destinado, no solo a quienes lo han utilizado históricamente. Necesitamos fuentes de datos globales, multilingües y culturalmente diversas. No solo más datos, sino mejores datos.
  • ¿De quién es el idioma, la cultura y los valores que configuran el modelo? La IA debe ser entrenada para respetar múltiples visiones del mundo, no solo para alinearse con las ideologías dominantes. Necesitamos identificar y cuestionar los supuestos culturales arraigados y garantizar que las perspectivas marginadas se consideren válidas, no como casos marginales.
  • ¿Quién participa en el diseño, las pruebas y el perfeccionamiento de estas herramientas? Si los equipos que desarrollan la IA carecen de diversidad de género, racial, lingüística y disciplinaria, los sesgos son inevitables. Inclusión en cada etapa.

Necesitamos una participación más amplia, definiciones más reflexivas de “precisión” y la voluntad de admitir que la IA nunca ha sido neutral.

Hacer visible lo invisible

El sesgo en la IA no es solo un fallo técnico; es un espejo. Refleja lo que la sociedad valora, lo que pasa por alto y quién ocupa un lugar central en nuestros sistemas de conocimiento. Pero una vez que comprendemos el origen del sesgo, podemos empezar a construir mejores modelos. Podemos enseñar a la IA a reflejar toda la humanidad, no solo las voces más fuertes. Porque la IA aprende de nosotros. Y de nosotros depende asegurarnos de que aprenda algo que valga la pena repetir.

Acerca del autor

Emily Barnes

La Dra. Emily Barnes es una líder e investigadora con más de 15 años de experiencia en educación superior. Se centra en el uso de la tecnología, la IA y el aprendizaje automático para innovar en la educación y apoyar a las mujeres en las áreas de ciencia, tecnología, ingeniería y matemáticas (STEM) y liderazgo. Aporta su experiencia mediante la docencia y el desarrollo de planes de estudio relacionados. Su investigación académica y sus estrategias operativas se basan en su formación académica: un doctorado en inteligencia artificial de la Universidad Tecnológica Capitol, un doctorado en educación (Ed.D.) en administración de la educación superior de la Universidad de Maryville, una maestría en LIS de la Universidad de Indiana, Indianápolis, y una licenciatura en humanidades y filosofía de la Universidad de Indiana.

Fuente: https://www.vktr.com/ai-ethics-law-risk/how-does-bias-get-into-ai-anyway/

Deja una respuesta