Si no puedes ver los datos, no puedes ver el problema, pero si no puedes ver a las personas detrás de los datos, no puedes solucionarlo.

por Prof. Lella Nouri, Universidad de Swansea

Un punto de inflexión para la IA y la sociedad

2025 marca un momento decisivo en nuestra relación con la inteligencia artificial. En gobiernos, industrias y comunidades, nos preguntamos no solo qué puede hacer la IA, sino a quién sirve y a quién podría excluir.

Durante años, la promesa de la innovación en IA ha coexistido con una creciente conciencia de sus puntos ciegos: sesgos, falta de representación y la replicación de desigualdades estructurales a través de los datos. El reto ahora es asegurar que la IA evolucione como una herramienta de reparación social, no de refuerzo de la injusticia.

Como académico que trabaja en las intersecciones de la IA, la seguridad comunitaria y la inclusión digital, he visto tanto el daño como la esperanza que acompañan al progreso tecnológico. El futuro depende de si podemos hacer que la IA sea más centrada en el ser humano, transparente e inclusiva.

Ver las calles de forma diferente: convertir el odio en intuición

A través de mi proyecto StreetSnap, estamos implementando el reconocimiento de imágenes para identificar y analizar grafitis odiosos en espacios públicos, convirtiendo lo que a menudo se descarta como vandalismo y molestias en datos en tiempo real sobre pertenencia y exclusión.

Al combinar el reconocimiento de imágenes, la denuncia de profesionales y las intervenciones artísticas creativas a través del proyecto hermano de Flip the Streets, StreetSnap permite que las autoridades locales y los residentes respondan juntos, sustituyendo el odio por creatividad.

Este trabajo reimagina lo que puede ser la IA. En lugar de un sistema distante y ávido de datos, se convierte en una lente de empatía: mapeando las historias que moldean nuestros espacios compartidos.

Si no puedes ver los datos, no puedes ver el problema, pero si no puedes ver a las personas detrás de los datos, no puedes solucionarlo.

Escuchar como datos: El poder de la experiencia vivida

El sesgo en IA rara vez es solo un defecto técnico; Refleja las desigualdades sociales incrustadas en nuestros conjuntos de datos. Las comunidades más afectadas por la discriminación suelen ser las menos representadas en los datos utilizados para diseñar sistemas digitales.

Esa visión inspiró el trabajo que se está desarrollando en el Repositorio de Experiencias Vividas sobre el Racismo en Gales, un archivo digital que pronto será abierto y que recopila estudios y testimonios existentes de personas que han experimentado racismo y exclusión. Esta plataforma garantiza que la política, la investigación y la innovación estén guiadas por historias reales, no por estadísticas abstractas.

La lección es sencilla: la inclusión empieza con la escucha. StreetSnap escucha el lenguaje de las calles; El repositorio escucha el lenguaje de la realidad vivida. Ambos muestran que las narrativas también son datos, esenciales para diseñar tecnología que refleje, en lugar de borrar, la experiencia humana.

Más allá del sesgo: Incorporando la responsabilidad en la IA

Gran parte de la conversación pública sobre la ética de la IA sigue centrada en mitigar los sesgos, pero necesitamos ir más allá. La rendición de cuentas significa preguntar quién participa, no solo cómo funciona el algoritmo.

En estos proyectos, trabajo con artistas, jóvenes, equipos de seguridad comunitaria y responsables políticos para co-diseñar cómo se recopilan e interpretan los datos. Cuando grupos diversos forman parte del proceso de diseño, los resultados no solo son más éticos: son más confiables, relevantes y resilientes.

La verdadera rendición de cuentas de la IA no se puede lograr únicamente mediante auditorías. Depende de la propiedad compartida, donde las comunidades moldean las herramientas que moldean sus vidas y experiencias.

Inclusión digital como infraestructura democrática

La inclusión digital suele describirse como un problema de acceso – banda ancha, dispositivos o habilidades – pero también es un tema democrático. Si la participación en sistemas digitales determina el acceso a servicios, seguridad y oportunidades, entonces la inclusión es fundamental para la justicia social.

Proyectos como StreetSnap y el repositorio demuestran cómo la IA inclusiva comienza con una narración inclusiva. Al valorar el conocimiento local, la creatividad y la experiencia vivida, no solo estamos recopilando mejores datos, sino que estamos redefiniendo de quién es la experiencia que importa en la esfera pública digital.

Este enfoque refleja el cambio más amplio en la práctica responsable de la IA: de diseñar sistemas para personas a diseñarlos con personas.

La oportunidad que se avecina: IA para la conexión humana

La siguiente fase del desarrollo de la IA debe ir más allá de la eficiencia hacia la empatía. Para construir una IA para bien, debemos reimaginar cómo es lo ‘bueno’ en la práctica.

Eso significa:

  • Incorporando la reflexividad ética en cada proyecto de IA — preguntando continuamente quién se beneficia, quién es visible y quién falta.
  • Fusionando datos y creatividad, haciendo que los temas sociales sean visibles y accionables a través de la narración digital.
  • Empoderar a las comunidades para co-crear y gobernar las tecnologías que les afectan.
  • Unir sectores —academia, políticas, tecnología y artes— para garantizar que la innovación sirva al bien público.

La IA puede, y debe, ayudarnos a vernos con más claridad — no solo predecir resultados, sino reflejar nuestros valores.

Conclusiones clave para los líderes

  • Prioriza la representación: Crea conjuntos de datos que capturen la diversidad de la experiencia vivida, no solo la conveniencia o la escala.
  • Diseña con empatía: Invita a las comunidades a participar en el proceso de diseño para asegurar que la IA refleje las realidades que pretende abordar.
  • Invierte en la inclusión digital como infraestructura social: La equidad en el acceso y la participación de datos es esencial para la innovación ética.

Esperando

El reconocimiento en la lista Digital Leaders AI 100 refleja no solo un progreso tecnológico, sino un movimiento creciente hacia una innovación ética y impulsada por la comunidad.

De cara al futuro, los sistemas de IA más transformadores no serán aquellos que piensen como los humanos, sino aquellos que ayuden a los humanos a pensar con más compasión unos sobre otros.

Fuente: https://digileaders.com/reclaiming-digital-spaces-building-inclusive-ai-through-lived-experience-and-street-data/

Deja una respuesta