Ciudad en auge; carteles de empresas informáticas en Bangalore, India, 12 de marzo de 1996. Foto de Jean-Marc Giboux/Liaison
Enormes cantidades de conocimiento humano faltan en internet. Por definición, la IA generativa también es sorprendentemente ignorante.
por Deepak Varuvel Dennison | Editado por Richard Fisher
Hace unos años, a mi padre le diagnosticaron un tumor en la lengua, lo que significaba que teníamos que sopesar algunas opciones. Mi familia tiene una dinámica interesante en cuanto a decisiones médicas. Si bien mi hermana mayor es médica especializada en medicina alopática occidental, mis padres son grandes creyentes en los remedios tradicionales. Al haber crecido en un pequeño pueblo de la India, estoy acostumbrado a los rituales. Mi padre también tenía uno. Cada vez que visitábamos su pueblo natal, en el sur de Tamil Nadu, recibía una botella de aceite espeso y penetrante con infusión de hierbas de un vaithiyar , un médico tradicional que practicaba la medicina siddha. Era su forma de mantener su conexión con la medicina que siempre había conocido y en la que había confiado.
El tumor de papá mostraba indicios de malignidad, así que los médicos del hospital y mi hermana recomendaron encarecidamente la cirugía. Mis padres se opusieron, preocupados por la posibilidad de que afectara el habla de mi papá. Aquí es donde normalmente intervengo yo, como mediadora experta en la familia. Como buena millennial, busqué ayuda en internet para tomar la decisión. Tras días de investigación exhaustiva (como siempre) me puse del lado de mi hermana y abogué por la cirugía. Internet nos respaldó.
Finalmente logramos que mi padre aceptara e incluso fijamos una fecha. Pero entonces, astutamente, usó el embarazo de mi hermana como distracción para evitar la cirugía. Mientras lo molestábamos a diario para que se la hiciera, él tomaba a escondidas su brebaje de hierbas. Y, he aquí, después de varios meses, el tumor se redujo y finalmente desapareció. Todo ese episodio sin duda le dio a mi padre el derecho de presumir.
En aquel momento, lo descarté como una excepción afortunada. Pero últimamente me pregunto si me apresuré a descartar la confianza de mis padres en el conocimiento tradicional, mientras aceptaba con facilidad la autoridad de las fuentes digitales dominantes. Me cuesta creer que las infusiones de hierbas de mi padre funcionaran, pero también me he dado cuenta de que el internet aparentemente omnisciente en el que confié con tanta facilidad contiene enormes lagunas, y en un mundo de IA, la situación está a punto de empeorar.
No se me escapa la ironía de que este dilema haya surgido a través de mi investigación en una universidad de Estados Unidos, en un entorno alejado de mi infancia y del mismo contexto donde las prácticas tradicionales formaban parte de la vida cotidiana. En la Universidad de Cornell, en Nueva York, estudio lo que se necesita para diseñar sistemas de IA responsables. Mi trabajo me ha revelado cómo el mundo digital refleja profundos desequilibrios de poder en el conocimiento, y cómo esto se ve amplificado por la IA generativa (GenAI). En sus inicios, internet estaba dominado por el idioma inglés y las instituciones occidentales, y este desequilibrio se ha acentuado con el tiempo, dejando mundos enteros de conocimiento y experiencia humana sin digitalizar. Ahora, con el auge de la GenAI —que se entrena con este corpus digital disponible—, esa asimetría amenaza con consolidarse.
Para muchas personas, GenAI se está convirtiendo en su principal forma de aprender sobre el mundo. Un estudio a gran escala publicado en septiembre de 2025, que analizaba el uso de ChatGPT desde su lanzamiento en noviembre de 2022, reveló que aproximadamente la mitad de las consultas buscaban orientación práctica o información. Estos sistemas pueden parecer neutrales, pero distan mucho de serlo. Los modelos más populares privilegian las epistemologías dominantes (típicamente occidentales e institucionales) y marginan las formas alternativas de conocimiento, especialmente las codificadas en la tradición oral, la práctica encarnada y las lenguas consideradas de bajo consumo en el mundo informático, como el hindi o el suajili, ambas habladas por cientos de millones de personas. Al amplificar estas jerarquías, GenAI corre el riesgo de contribuir a la desaparición de sistemas de comprensión que han evolucionado a lo largo de siglos, desconectando a las generaciones futuras de vastos conjuntos de conocimientos y sabiduría que nunca fueron codificados, pero que siguen siendo esenciales para el conocimiento humano. Lo que está en juego, entonces, no es solo la representación, sino la resiliencia y la diversidad del conocimiento en sí.
GenAI se entrena con conjuntos de datos masivos de textos provenientes de fuentes como libros, artículos, sitios web y transcripciones, de ahí el nombre de «modelo lingüístico extenso» (LLM). Sin embargo, estos datos de entrenamiento distan mucho de la suma total del conocimiento humano. Además de las culturas orales, muchas lenguas están subrepresentadas o ausentes.
Para comprender la importancia de esto, primero debemos reconocer que las lenguas sirven como vehículos de conocimiento: no son meras herramientas de comunicación, sino depositarias de un conocimiento especializado. Cada lengua alberga mundos enteros de experiencia y conocimiento humano desarrollados a lo largo de siglos: los rituales y costumbres que configuran las comunidades, formas distintivas de percibir la belleza y crear arte, una profunda familiaridad con paisajes y sistemas naturales específicos, cosmovisiones espirituales y filosóficas, vocabularios sutiles para experiencias internas, conocimientos especializados en diversos campos, marcos para la organización de la sociedad y la justicia, memorias colectivas y narrativas históricas, tradiciones curativas y vínculos sociales intrincados.
A pesar de que lo hablan más de 86 millones de personas en todo el mundo, el tamil representa solo el 0,04 por ciento de los datos
Cuando los sistemas de IA carecen de una exposición adecuada a un idioma, tienen puntos ciegos en su comprensión de la experiencia humana. Por ejemplo, los datos de Common Crawl, una de las mayores fuentes públicas de datos de entrenamiento, revelan marcadas desigualdades. Contiene más de 300 mil millones de páginas web que abarcan 18 años , pero el inglés domina con el 44 por ciento del contenido. Lo que es aún más preocupante es el desequilibrio entre cuántas personas hablan un idioma en el mundo físico y cuánto está representado ese idioma en los datos en línea. Tomemos el hindi, por ejemplo, el tercer idioma más hablado a nivel mundial, hablado por alrededor del 7,5 por ciento de la población mundial. Representa solo el 0,2 por ciento de los datos de Common Crawl. La situación es aún más grave para el tamil, mi propia lengua materna. A pesar de ser hablado por más de 86 millones de personas en todo el mundo, representa solo el 0,04 por ciento de los datos. En cambio, el inglés es hablado por aproximadamente el 20 % de la población mundial (incluyendo hablantes nativos y no nativos), pero domina el espacio digital por un margen exponencialmente mayor. De igual manera, otras lenguas coloniales como el francés, el italiano y el portugués, con muchos menos hablantes que el hindi, también tienen una mejor representación en línea.
La infrarrepresentación del hindi y el tamil, por preocupante que sea, representa solo la punta del iceberg. En el mundo de la informática, aproximadamente el 97 % de los idiomas del mundo se clasifican como de “bajos recursos”. Esta designación es engañosa cuando se aplica más allá de los contextos informáticos: muchos de estos idiomas cuentan con millones de hablantes y poseen tradiciones centenarias de un rico patrimonio lingüístico. Simplemente, están infrarrepresentados en línea o en conjuntos de datos accesibles. En cambio, los idiomas de “altos recursos” disponen de abundante y diversa información digital. Un estudio de 2020 mostró que el 88 % de los idiomas del mundo se enfrentan a un descuido tan grave en las tecnologías de IA que modernizarlos requeriría esfuerzos titánicos, quizás imposibles. No sería sorprendente que la situación actual no fuera muy diferente incluso ahora.
Para ilustrar los tipos de conocimiento que faltan, consideremos solo un ejemplo: nuestra comprensión de las ecologías locales. Un amigo ambientalista me dijo una vez algo que se me quedó grabado: la conexión de una comunidad con su ecología se puede ver a través de los nombres que tienen para sus plantas locales. Cuanto más íntima sea su relación con su entorno, más detallado y específico se vuelve su vocabulario botánico. Debido a que las especies de plantas a menudo son específicas de una región o ecológicamente únicas, el conocimiento de estas plantas se vuelve igualmente localizado. Esta perspectiva resulta notablemente precisa cuando examinamos la investigación. Por ejemplo, un estudio sobre plantas medicinales en América del Norte, el noroeste de la Amazonia y Nueva Guinea encontró que más del 75 por ciento de los 12,495 usos distintos de las especies de plantas eran exclusivos de un solo idioma local. Cuando un idioma se margina, el conocimiento de las plantas que lleva incorporado a menudo también desaparece.


Mientras escribía este ensayo, hablé con varias personas sobre las lagunas lingüísticas en GenAI. Una de ellas fue Dharan Ashok, arquitecto jefe de Thannal, una organización dedicada a recuperar las técnicas de construcción natural en la India. Comentó que existe una fuerte conexión entre el idioma y el conocimiento ecológico local, y que este, a su vez, sustenta el conocimiento arquitectónico indígena. Si bien la construcción moderna se basa principalmente en el hormigón y el acero, los métodos de construcción indígenas eran profundamente ecológicos, me comentó. Se basaban en materiales disponibles en el entorno, y los biopolímeros derivados de plantas nativas desempeñaban un papel importante.
Ante la preocupación por las prácticas de construcción contemporáneas insostenibles y con un alto consumo de carbono, Dharan trabaja activamente para recuperar el arte perdido de producir biopolímeros a partir de plantas locales. Sin embargo, señaló que el mayor desafío reside en que este conocimiento está en gran parte indocumentado y se ha transmitido oralmente a través de las lenguas nativas. A menudo, solo lo poseen unos pocos ancianos, y cuando fallecen, se pierde. Dharan relató una experiencia reciente: perdió la oportunidad de aprender a fabricar un tipo específico de ladrillo a base de piedra caliza tras la muerte del último artesano con ese conocimiento.
Para comprender cómo ciertas formas de conocimiento alcanzan el dominio global, a menudo a expensas del conocimiento indígena, es útil considerar la idea de hegemonía cultural desarrollada por el filósofo italiano Antonio Gramsci.
Gramsci argumentó que el poder no se mantiene únicamente mediante la fuerza o el control económico, sino también mediante la configuración de normas culturales y creencias cotidianas. Con el tiempo, los enfoques epistemológicos arraigados en las tradiciones occidentales han llegado a considerarse objetivos y universales, en lugar de culturalmente situados o históricamente contingentes. Esto ha normalizado el conocimiento occidental como estándar, ocultando las fuerzas históricas y políticas específicas que permitieron su auge. Instituciones como escuelas, organismos científicos y organizaciones internacionales de desarrollo han contribuido a consolidar este dominio.
Las epistemologías no son solo abstractas y cognitivas. Se materializan físicamente a nuestro alrededor, con un impacto directo en nuestros cuerpos y experiencias vividas. Para entender por qué, consideremos un ejemplo que contrasta marcadamente con las prácticas de construcción indígenas que Dharan busca rescatar: rascacielos con fachadas de cristal en los trópicos.
Los edificios de cristal son brillantes recordatorios de los peligros de la homogeneización del conocimiento y las jerarquías epistémicas.
Lejos de ser opciones neutrales o puramente estéticas, los edificios de cristal reflejan una tradición epistemológica particular arraigada en el modernismo arquitectónico occidental. Originalmente diseñados para climas fríos y con poca luz, estos edificios fueron elogiados por su aparente eficiencia energética, permitiendo una abundante entrada de luz natural a los interiores y reduciendo la dependencia de la iluminación artificial.
Sin embargo, cuando este diseño se aplica en regiones tropicales, se convierte en una contradicción ambiental. En lugares con intensa luz solar, estudios han demostrado que las fachadas de vidrio provocan un sobrecalentamiento interior significativo y malestar térmico, incluso con acristalamientos modernos. En lugar de ahorrar energía, estos edificios la necesitan para mantenerse frescos.
Sin embargo, las fachadas de vidrio se han convertido en el rostro omnipresente de la modernidad urbana, ya sea San Francisco, Yakarta o Lagos, independientemente del clima o el contexto cultural.
A medida que el cambio climático se acelera, estos edificios de cristal son un claro recordatorio de los peligros de la homogeneización del conocimiento y las jerarquías epistémicas. Irónicamente, escribo esto desde el interior de uno de esos mismos edificios en Bengaluru, al sur de la India. Me siento en un ambiente fresco con el suave zumbido del aire acondicionado en los oídos. Afuera, la gente pasea bajo una suave llovizna. Parece una tarde monzónica normal, salvo que las lluvias llegaron semanas antes de lo previsto este año, otra señal más de la creciente imprevisibilidad climática.
En Bengaluru, veo otro ejemplo de los impactos de la pérdida de conocimiento: la gestión del agua. ¿Cómo puede una ciudad inundarse gravemente en mayo, sumergiendo coches, y aun así tener dificultades para conseguir agua incluso para uso doméstico en marzo? Si bien esto puede atribuirse a factores como la mala planificación y la urbanización descontrolada, también tiene profundas raíces epistemológicas.

BEngaluru fue reconocido en su día por su sistema inteligente de gestión del agua, alimentado por una serie de lagos interconectados en cascada. Durante siglos, estos lagos fueron gestionados por comunidades dedicadas, como la comunidad Neeruganti ( neeru significa “agua” en kannada), que controlaba el flujo de agua y garantizaba una distribución justa. Según las lluvias, orientaban a los agricultores sobre los cultivos a cultivar, a menudo sugiriendo variedades que ahorraban agua. También se encargaban del mantenimiento: desazolvaban los tanques, plantaban vegetación para prevenir la erosión y limpiaban los canales de alimentación.
Pero con la modernización, la gestión comunitaria del agua dio paso a sistemas centralizados y soluciones individuales como el riego mediante presas y pozos remotos. La Revolución Verde de finales de la década de 1960 contribuyó a este cambio, impulsando cultivos con alto consumo de agua y fertilizantes, desarrollados en laboratorios occidentales. Los neerugantis quedaron marginados, y muchos se marcharon en busca de otro trabajo. Los lagos y canales locales decayeron, y algunos incluso fueron reemplazados por carreteras, edificios o paradas de autobús.
La historia global del imperialismo y el colonialismo continúa moldeando cómo se produce y se valora el conocimiento.
Los expertos se han dado cuenta de que la clave para salvar a Bengaluru de su crisis hídrica reside en revitalizar estos sistemas lacustres. Una trabajadora social con la que hablé, que ha participado en varios de estos proyectos, comentó que a menudo recurren a los ancianos de la comunidad de Neeruganti en busca de consejo. Sus perspectivas son valiosas, pero su conocimiento local no está escrito, y su papel como gestores comunitarios del agua ha sido deslegitimado durante mucho tiempo. El conocimiento solo existe en su lengua materna, se transmite oralmente, y está prácticamente ausente en los espacios digitales, y mucho menos en los sistemas de inteligencia artificial.
Si bien todos mis ejemplos hasta ahora provienen de la India por mi familiaridad personal, estas jerarquías están muy extendidas y arraigadas en la historia global del imperialismo y el colonialismo. En su libro ” Decolonising Methodologies” (1999), la académica maorí Linda Tuhiwai Smith enfatiza que el colonialismo alteró profundamente los sistemas de conocimiento locales —y los cimientos culturales e intelectuales sobre los que se construyeron— al romper los vínculos con la tierra, el idioma, la historia y las estructuras sociales. Las reflexiones de Smith revelan cómo estos procesos no se limitan a una sola región, sino que forman parte de un legado más amplio que continúa moldeando la forma en que se produce y valora el conocimiento. Es sobre esta base distorsionada que se construyen los sistemas digitales y de inteligencia artificial (IA) actuales.
Recientemente trabajé con Microsoft Research, examinando varias implementaciones de GenAI diseñadas para poblaciones no occidentales. Observar cómo estos modelos de IA a menudo ignoran contextos culturales, pasan por alto el conocimiento local y, con frecuencia, no se ajustan a su comunidad objetivo me ha hecho comprender hasta qué punto codifican los sesgos existentes y excluyen el conocimiento marginal.
El trabajo también me ha acercado a comprender las razones técnicas por las que se desarrollan tales desigualdades dentro de los modelos. El problema es mucho más profundo que las lagunas en los datos de entrenamiento. Por diseño, los LLM también tienden a reproducir y reforzar las ideas estadísticamente más prevalentes, creando un ciclo de retroalimentación que reduce el alcance del conocimiento humano accesible.
¿Por qué? La representación interna del conocimiento en un LLM no es uniforme. Los conceptos que aparecen con mayor frecuencia, de forma más destacada o en una gama más amplia de contextos en los datos de entrenamiento tienden a estar codificados con mayor fuerza. Por ejemplo, si la pizza se menciona comúnmente como comida favorita en un amplio conjunto de textos de entrenamiento, es más probable que el modelo responda “pizza” cuando se le pregunta “¿Cuál es tu comida favorita?”. No porque al LLM le guste la pizza, sino porque esa asociación es estadísticamente más prominente.
Más sutilmente, la distribución de salida del modelo no refleja directamente la frecuencia de las ideas en los datos de entrenamiento. En cambio, los LLM a menudo amplifican los patrones dominantes de una manera que distorsiona sus proporciones originales. Este fenómeno puede denominarse “amplificación de modo”. Supongamos que los datos de entrenamiento incluyen un 60 por ciento de referencias a la pizza, un 30 por ciento a la pasta y un 10 por ciento al biriyani como comidas favoritas. Uno podría esperar que el modelo reproduzca esta distribución si se le hace la misma pregunta 100 veces . Sin embargo, en la práctica, los LLM tienden a sobreproducir la respuesta más frecuente. La pizza puede aparecer más de 60 veces , mientras que elementos menos frecuentes como el biriyani pueden estar subrepresentados u omitirse por completo. Esto ocurre porque los LLM están optimizados para predecir el siguiente “token” más probable (la siguiente palabra o fragmento de palabra en una secuencia), lo que conduce a un énfasis desproporcionado en las respuestas de alta probabilidad, incluso más allá de su prevalencia real en el corpus de entrenamiento. En conjunto, estos dos principios (la representación desigual del conocimiento interno y la amplificación del modo en la generación de resultados) ayudan a explicar por qué los LLM a menudo refuerzan patrones o ideas culturales dominantes.
Esta codificación desigual se distorsiona aún más mediante el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), donde los modelos GenAI se ajustan con precisión según las preferencias humanas. Esto inevitablemente integra los valores y las visiones del mundo de sus creadores en los propios modelos. Pregúntale a ChatGPT sobre un tema controvertido y obtendrás una respuesta diplomática que parece elaborada por un grupo de abogados y profesionales de RR. HH. con un gran interés en complacerte. Pregúntale a Grok la misma pregunta y podrías obtener una ocurrencia sarcástica seguida de una postura políticamente cargada, perfecta para la cena de cierto multimillonario tecnológico.
La IA crea un ciclo de retroalimentación donde las ideas dominantes se amplifican mientras que el conocimiento especializado desaparece de la vista.
Las presiones comerciales añaden un nuevo nivel de complejidad. Los usuarios más lucrativos —profesionales angloparlantes dispuestos a pagar entre 20 y 200 dólares mensuales por suscripciones premium de IA— se convierten en el modelo implícito de la «superinteligencia». Estos modelos destacan por generar informes trimestrales, codificar en los idiomas preferidos de Silicon Valley y redactar correos electrónicos que parecen apropiadamente respetuosos con las jerarquías corporativas occidentales. Mientras tanto, tropiezan con contextos culturales que no se traducen en ganancias trimestrales.
No debería sorprender que un creciente número de estudios demuestre que los LLM reflejan predominantemente los valores y las epistemologías culturales occidentales . Sobrerrepresentan a ciertos grupos dominantes en sus trabajos, refuerzan y amplifican los sesgos de estos grupos y son más precisos en cuanto a los hechos sobre temas relacionados con Norteamérica y Europa. Incluso en ámbitos como las recomendaciones de viajes o la narración de historias, los LLM tienden a generar contenido más rico y detallado para los países más ricos que para los más pobres. Podría citar al menos otros 50 estudios similares.
Y más allá de simplemente reflejar las jerarquías de conocimiento existentes, GenAI tiene la capacidad de amplificarlas , a medida que el comportamiento humano cambia con ellas. La integración de resúmenes de IA en motores de búsqueda, junto con la creciente popularidad de los motores de búsqueda impulsados por IA como Perplexity, subraya este cambio. Un estudio reciente reveló que los usuarios estadounidenses de Google eran menos propensos a hacer clic en los resultados de búsqueda cuando aparecía un resumen de IA junto a ellos, lo que indica un cambio en el comportamiento de las personas. Anteriormente, las personas tenían que navegar por múltiples enlaces para comparar puntos de vista y obtener información completa. Ahora, pueden leer resúmenes generados por IA.
A medida que el contenido generado por IA ha comenzado a inundar internet, se añade una capa adicional de amplificación a las ideas que ya son populares en línea. Internet, como fuente principal de conocimiento para los modelos de IA, se ve influenciado recursivamente por los resultados que estos generan. Con cada ciclo de entrenamiento, los nuevos modelos dependen cada vez más del contenido generado por IA, lo que refuerza las narrativas predominantes y margina aún más las perspectivas menos prominentes. Esto corre el riesgo de crear un ciclo de retroalimentación donde las ideas dominantes se amplifican continuamente mientras el conocimiento de cola larga o de nicho se desvanece.
El investigador de IA Andrew Peterson describe este fenómeno como un “colapso del conocimiento”, una reducción gradual de la información a la que los humanos pueden acceder, junto con una disminución de la conciencia de los puntos de vista alternativos u oscuros. A medida que los LLM se entrenan con datos moldeados por resultados de IA anteriores, el conocimiento subrepresentado puede volverse menos visible, no porque carezca de mérito, sino porque se recupera o cita con menos frecuencia. Peterson también advierte sobre el “efecto de la farola”, llamado así por el chiste en el que una persona busca llaves perdidas debajo de una farola por la noche porque ahí es donde la luz es más brillante. En el contexto de la IA, esto sería que las personas buscan donde es más fácil en lugar de donde es más significativo . Con el tiempo, esto daría lugar a una reducción degenerativa de la base de conocimiento público, impulsada no por la censura, sino por la conveniencia y los algoritmos.
En todo el mundo, GenAI también se está convirtiendo en parte de la educación formal, utilizada para generar contenido de aprendizaje y apoyar la educación a su propio ritmo a través de tutores de IA. Por ejemplo, el gobierno del estado de Karnataka, donde se encuentra la ciudad de Bengaluru, se ha asociado con la organización sin fines de lucro Khan Academy, con sede en EE. UU., para implementar Khanmigo, un asistente de aprendizaje basado en IA, en escuelas y universidades. Me sorprendería que Khanmigo contuviera las ideas de los ancianos neerugantis, basadas en el conocimiento y las prácticas locales, necesarias para enseñar a los estudiantes de Karnataka a cuidar sus propios ecosistemas acuáticos.
Todo esto significa que, en un mundo donde la IA media cada vez más el acceso al conocimiento, las generaciones futuras podrían perder la conexión con vastos conjuntos de experiencia, conocimiento y sabiduría . Los desarrolladores de IA podrían argumentar que se trata simplemente de un problema de datos, solucionable mediante la incorporación de fuentes más diversas en los conjuntos de datos de entrenamiento. Si bien esto podría ser técnicamente posible, los desafíos de la obtención, priorización y representación de datos son mucho más complejos de lo que implica dicha solución.
Una conversación que tuve con un alto directivo involucrado en el diseño y la supervisión del desarrollo de un chatbot de IA que presta servicios a más de 8 millones de agricultores en cuatro países de Asia y África me hizo ver esto claramente. El sistema proporciona asesoramiento agrícola basado principalmente en bases de datos de organismos gubernamentales y organizaciones internacionales de desarrollo, que suelen basarse en la literatura científica. El alto directivo reconoció que muchas prácticas locales que podrían ser eficaces aún se excluyen de las respuestas del chat, ya que no están documentadas en la literatura científica.
La razón no es que el asesoramiento basado en investigaciones sea siempre correcto o libre de riesgos. Es que ofrece una posición defendible si algo sale mal. En un sistema tan grande, apoyarse en fuentes reconocidas se considera la apuesta más segura, protegiendo a la organización de responsabilidades y dejando de lado el conocimiento que no ha sido verificado a través de canales institucionales. Por lo tanto, la decisión es más que meramente técnica. Es un compromiso determinado por el contexto estructural, no basado en lo que sea más útil o verdadero.
Si bien GenAI puede estar acelerando la eliminación del conocimiento local, no es la causa raíz
Este contexto estructural no solo influye en las decisiones institucionales. También influye en los desafíos que escuché en mi conversación con Perumal Vivekanandan, fundador de la organización sin fines de lucro Acción Voluntaria para la Agricultura Sostenible y el Medio Ambiente (SEVA). Sus experiencias ponen de relieve la ardua batalla que enfrentan quienes trabajan para legitimar el conocimiento indígena.
Fundada en 1992, SEVA se centra en la preservación y difusión del conocimiento indígena en materia de agricultura, ganadería y conservación de la biodiversidad agrícola. A lo largo de los años, Vivekanandan ha documentado más de 8600 prácticas y adaptaciones locales, recorriendo pueblos de una aldea a otra.
Aún así, el trabajo se topa constantemente con obstáculos sistémicos. Los financiadores a menudo niegan su apoyo, cuestionando la legitimidad científica del conocimiento que SEVA busca promover. Cuando SEVA recurre a universidades e instituciones de investigación para que le ayuden a validar este conocimiento, suelen señalar la falta de incentivos para participar. Algunos incluso sugieren que SEVA debería financiar los estudios de validación. Esto crea una disyuntiva: sin validación, SEVA tiene dificultades para conseguir apoyo; pero sin apoyo, no puede costear la validación. El proceso revela un desafío más profundo: encontrar maneras de validar el conocimiento indígena dentro de sistemas que históricamente lo han infravalorado.
La historia de SEVA demuestra que, si bien GenAI puede estar acelerando la desaparición del conocimiento local, no es la causa principal. La marginación del conocimiento local e indígena ha sido impulsada durante mucho tiempo por estructuras de poder arraigadas. GenAI simplemente intensifica este proceso.
A menudo consideramos la pérdida del conocimiento indígena como una tragedia que afecta únicamente a las comunidades locales que lo poseían. Pero, en última instancia, la pérdida no les corresponde solo a ellas, sino también al mundo entero .
En nuestras estructuras sociales, podemos asignar un valor jerárquico a ciertas comunidades o tipos de conocimiento, pero la ecología natural revela una lógica diferente. Cada elemento local juega un papel vital en el mantenimiento del equilibrio global. Como ilustra el silvicultor Peter Wohlleben en The Hidden Life of Trees (2015), los sistemas naturales son profundamente interdependientes, a menudo de maneras que son invisibles para el observador casual. Ofrece un poderoso ejemplo del Parque Nacional de Yellowstone en los EE. UU. Cuando los lobos fueron erradicados del parque a principios del siglo XX , esto condujo a una serie de consecuencias ecológicas inesperadas. Sin lobos para mantener sus números bajo control, las poblaciones de ciervos se dispararon. Los ciervos sobrepastorearon la vegetación y alteraron el paisaje. Las riberas de los ríos se erosionaron, el crecimiento de los árboles se estancó y el ecosistema más amplio sufrió. Cuando los lobos fueron reintroducidos décadas después, el sistema comenzó a sanar. La vegetación se recuperó, los pájaros cantores regresaron e incluso el comportamiento de los ríos cambió.
Estamos enredados en sistemas ecológicos compartidos donde las heridas locales inevitablemente se convierten en dolores globales.
El argumento más amplio de Wohlleben es que la salud de un sistema depende de la presencia de todas sus partes, incluso aquellas que podrían parecer insignificantes. El mismo principio se aplica al conocimiento humano. La desaparición del conocimiento local no es una pérdida trivial. Es una perturbación de la red más amplia de comprensión que sustenta el bienestar humano y ecológico. Así como las especies biológicas han evolucionado para prosperar en entornos locales específicos, los sistemas de conocimiento humano se adaptan a las particularidades del lugar. Cuando estos sistemas se alteran, las consecuencias pueden extenderse mucho más allá de su punto de origen.
Al humo de los incendios forestales no le importa cruzar códigos postales. El agua contaminada no se detiene en las fronteras estatales. El aumento de las temperaturas ignora las fronteras nacionales. Los gérmenes infecciosos no tienen plazos de espera para visas. Lo reconozcamos o no, estamos inmersos en sistemas ecológicos compartidos donde las heridas locales inevitablemente se convierten en dolores globales.
La mayor contradicción para mí al escribir este ensayo es que intento convencer a los lectores de la legitimidad e importancia de los sistemas de conocimiento local, mientras que yo mismo sigo sin estar convencido de las infusiones de hierbas de mi padre. Esta incertidumbre parece una traición a todo lo que he defendido. Sin embargo, tal vez sea precisamente el tipo de complejidad honesta que necesitamos abordar.
Dudo que el conocimiento indígena funcione realmente como se afirma en todos los casos. Especialmente cuando influencers y políticos lo invocan superficialmente para conseguir “me gusta”, opiniones o para explotar políticas identitarias, generando desinformación sin una investigación sincera. Sin embargo, me preocupa igualmente dejar que desaparezca. Podríamos perder algo valioso, solo para reconocer su valor mucho más tarde, quizás con la ayuda de la superinteligencia artificial. Pero ¿cuál es el daño colateral de ese proceso? ¿Un colapso ecológico que podríamos haber evitado?
La crisis climática está revelando grietas en nuestros paradigmas de conocimiento dominantes. Sin embargo, al mismo tiempo, los desarrolladores de IA están convencidos de que su tecnología acelerará el progreso científico y resolverá nuestros mayores desafíos. Realmente quiero creer que tienen razón. Pero persisten varias preguntas: ¿podemos avanzar hacia este futuro tecnológico mientras interactuamos auténticamente con los sistemas de conocimiento que hemos descartado, con una curiosidad genuina que trascienda la mera formalidad? ¿O seguiremos borrando formas de comprensión a través de las jerarquías que hemos construido y nos encontraremos luchando por colonizar Marte porque nunca aprendimos a escuchar a quienes supieron vivir de forma sostenible en la Tierra?
Quizás la inteligencia que más necesitamos sea la capacidad de ver más allá de las jerarquías que determinan qué conocimiento cuenta. Sin esa base, por mucho que invirtamos cientos de miles de millones en desarrollar superinteligencia, seguiremos destruyendo sistemas de conocimiento que tardaron generaciones en desarrollarse.
No sé si los brebajes de hierbas de mi padre funcionaron. Pero estoy aprendiendo que reconocer que no lo sé podría ser el punto de partida más honesto.
Fuente: https://aeon.co/essays/generative-ai-has-access-to-a-small-slice-of-human-knowledge