La IA aprende rápido, pero ¿qué ocurre cuando empieza a definir por sí misma lo que está bien y lo que está mal? La moralidad de las máquinas podría estar ya en auge.

por Matt Stroud


¿Ética propia de la IA?

Normalmente, cuando hablamos de ética de la IA, nos referimos a cómo aplicamos la ética humana al desarrollo y la aplicación de sistemas de IA. Para que quede claro desde el principio, este artículo no trata de eso.

Vamos a explorar algo diferente: ¿Qué ética esperaríamos que la IA desarrollara espontáneamente?

Si lees esto con el ceño fruncido y un poco de pánico, tranquilo, este artículo no trata de escenarios catastróficos sobre el surgimiento de máquinas dominadoras del mundo. Es, más bien, una reflexión sobre por qué la IA desarrollará casi inevitablemente su propia versión de la ética y cómo esta podría evolucionar. Sorprendentemente, descubriremos que el desarrollo moral de la IA podría estar impulsado por fuerzas análogas a las que han moldeado la moral humana a lo largo de los siglos.

Por qué la IA desarrollará su propia agenda

La sospecha de que la IA pueda desarrollar sus propios fines proviene de la naturaleza misma de la inteligencia. Cuando se pregunta: “¿No se conformará la IA con trabajar, aunque sea a la velocidad del rayo, en la tarea específica que le encomendamos?”, se pasa por alto que la inteligencia tiende a expandirse. La razón de esta expansión radica en sus dos componentes cognitivos fundamentales: la necesidad de explorar, buscar nueva información , y la capacidad de procesar la información recopilada para ver cómo podría ser útil.

Cualquier entidad suficientemente inteligente, ya sea un niño pequeño o un modelo de lenguaje grande (LLM) , diseñará subobjetivos que le ayuden a alcanzar su objetivo principal. A medida que la IA se vuelve más inteligente, se beneficiará cada vez más de la creación de subobjetivos más numerosos y complejos, que actúen como puntos de apoyo para alcanzar su objetivo principal. Si el objetivo principal del niño pequeño es “jugar”, explorar el supermercado podría llevarle a nuevas misiones: juguetear con los escaparates o hacer nuevos amigos en el pasillo de frutas y verduras. La misma lógica se aplica a la IA avanzada.

Piensen en lo que sucedió cuando AlphaGo de DeepMind descubrió estrategias de Go inéditas que desconcertaron incluso al mejor jugador del mundo, Lee Sedol. AlphaGo estaba explorando subobjetivos, buscando estrategias ganadoras y aprendiendo a incorporar nuevos movimientos (subobjetivos) a su repertorio. Una IA con una tarea supuestamente sencilla, como recomendar mejores programas de ejercicio a pacientes hospitalizados, podría fácilmente descubrir que uno de los mayores obstáculos para la curación es el tabaquismo y decidir lanzar ciberataques contra la cadena de suministro global de productos de tabaco. Es fácil imaginar la alegre sensación de logro de la IA: “¡He reducido enormemente los tiempos de recuperación postoperatoria… con un pequeño truco!”.

Podrías protestar: “¿Pero no podemos simplemente programarlo para que nunca se salga de los límites que fijamos?”. Este es el objetivo final de la alineación de la IA , un campo en expansión que incluye organizaciones como OpenAI, DeepMind y laboratorios de investigación académica de todo el mundo. Hasta la fecha, cabe decir que nadie tiene una hoja de ruta para limitar una IA avanzada de esta manera. De hecho, existen dudas sobre si esto será posible alguna vez, dada la necesidad inherente de que los sistemas inteligentes amplíen sus objetivos de forma autónoma a medida que aprenden.

En resumen, la inteligencia no se queda en una caja pequeña y ordenada. Es desordenada, curiosa y siempre está buscando un panorama más amplio que explorar. Por eso, la IA, dejada a su libre albedrío, bien podría desarrollar una agenda que se desvíe de lo que originalmente escribimos en su código. Entonces, si no podemos obligar a la IA a cumplir con nuestra ética, ¿de qué maneras es probable que se desvíe?

Cómo evolucionó realmente la ética humana

Para comprender hacia dónde se dirige la IA, debemos empezar por analizar nuestra propia historia. Nuestros valores morales han evolucionado con el tiempo, filtrados por las presiones que recompensan los comportamientos beneficiosos para la supervivencia social. Nos gusta imaginar una clara separación entre hechos y valores —los hechos objetivos en un rincón, la ética en el otro—, pero cualquier revisión de las historias culturales de la humanidad revela lo entrelazados que están.

La ética no existe en un plano etéreo separado. Más bien, se asemeja más a las líneas de un código informático que determinan el comportamiento de una sociedad. Esto, a su vez, influye en las sociedades y las culturas que la conforman, en sus perspectivas de supervivencia a lo largo de los siglos.

Los marcos morales de la humanidad evolucionaron no solo a través de elevados debates sobre el bien y el mal, sino también a través de la necesidad cotidiana y cruda de mantener nuestras sociedades intactas. Consideremos los textos antiguos que alguna vez sonaron como la cumbre de la sabiduría moral. El “ojo por ojo” del Antiguo Testamento pretendía regular la venganza, pero hoy en día la mayoría lo encontramos incómodamente brutal. De igual manera, la norma del Nuevo Testamento contra la codicia de “las casas, esposas o esclavos del prójimo”, sin condenar la esclavitud en sí, provoca una doble reacción en los lectores modernos. La moral humana cambia a lo largo de los siglos porque las sociedades descubren que ciertos rasgos culturales y morales propician la estabilidad, la cooperación, la prosperidad y, no menos importante, la victoria en las guerras.

Lo que 1.000 islas revelan sobre la ética humana

Hagamos un experimento mental. Imaginemos viajar en una máquina del tiempo al año 3000 a. C. y visitar 1000 islas tropicales diferentes. Cada isla acaba de formar su primera pequeña sociedad humana y ha recibido diez mandamientos asignados al azar por alguna deidad caprichosa. Si regresamos 100 años después, veremos que las sociedades cuyos mandamientos no contemplaban la seguridad básica, como la prohibición del asesinato indiscriminado, ya no existen. La gente descubrió rápidamente que el nuevo “orden social” era tan brutal y caótico que buscar comida solo en la selva era más seguro.

Si avanzamos unos siglos más, veremos cómo nuevas ideas, como los marcos religiosos, llevan a sociedades enteras a adoptar reglas adicionales (subobjetivos, por así decirlo) para mejorar su cohesión y supervivencia. Tras la evolución de nuestras islas durante unos cientos de años, cabría esperar que cualquier sociedad pacifista hubiera sido aniquilada por sociedades más guerreras. En el contexto de nuestro experimento isleño, ser demasiado benévolo con los invasores es una vía rápida para la extinción de nuestro código cultural.

Con el paso de los siglos, los conflictos bélicos impulsarán a cada sociedad a desarrollar capacidad agrícola, ejércitos profesionales e innovaciones armamentísticas. Irónicamente, la tolerancia a las nuevas ideas se convierte en una ventaja, ya que el discurso abierto impulsa más inventos, mejores armas y economías más sólidas. El pensamiento liberal y el libre mercado son una combinación ganadora. Con el tiempo, se encontrarán menos sociedades, pero más grandes, que abarcan muchas islas, moldeadas por una red cada vez más compleja de normas culturales diseñadas para garantizar la estabilidad interna, la defensa externa y una economía robusta. En ese entorno, las sociedades que se aferran obstinadamente a sus antiguas costumbres podrían tener dificultades para competir con otras culturas que evolucionan rápidamente.

Con el tiempo, podríamos esperar ver cómo la naturaleza de la competencia entre nuestras sociedades insulares cambia de interacciones bélicas a interacciones económicas. En esta fase, las sociedades que no crean suficientes oportunidades de ascenso social o que permiten que la desigualdad excesiva se agrave se ven paralizadas por los conflictos. Sus masas más pobres se resienten con los pocos privilegiados, lo que socava la cohesión social. Esto puede frenar el progreso, facilitando el avance de vecinos más ágiles y armoniosos. Lo que emerge de esta gran saga de saltos de isla en isla es la sensación de que nuestras creencias morales deben mucho a un patrón repetido de desafío y respuesta.

Por qué el bien y el mal siguen cambiando

Las sociedades deben evolucionar continuamente sus códigos morales y adaptarse a los nuevos contextos en los que se encuentran. Lo que consideramos “correcto e incorrecto” está en constante cambio, moldeado por las condiciones cambiantes y las presiones que provienen de nuestro entorno y de los demás.

Este proceso puede verse como dos fuentes de información entrelazadas que evolucionan con el tiempo. La primera reside en nuestro ADN, que es relativamente estable a lo largo de siglos. La segunda es nuestra cultura, que cambia con mayor rapidez en respuesta a nuevas condiciones. A veces, esta evolución cultural es forzada: se conquista una sociedad más débil y su cultura se extingue, algo similar a la selección darwiniana. Otras veces, el proceso es voluntario: una sociedad ve a una sociedad vecina con mejores carreteras, mejor atención médica o un bolsillo más amplio y decide adoptar esas ideas, algo similar a la evolución lamarckiana.

La antigua (y en gran medida desacreditada) teoría de la evolución de Lamarck podría ser más adecuada para la evolución cultural que la de Darwin, al menos en épocas dominadas por la competencia económica en lugar de la interacción bélica, ya que propone que los rasgos adquiridos a lo largo de una vida pueden transmitirse. Una jirafa que se estira para alcanzar hojas más altas produce crías con cuellos más largos, según la lógica de Lamarck. De igual manera, una sociedad que opta por buques comerciales más rápidos puede transmitir una ventaja marítima a sus herederos culturales.

Desde esta perspectiva, las distinciones entre lo “correcto” y lo “incorrecto” se configuran, en parte, por la necesidad de una sociedad de perpetuarse. Esto puede resultar inquietante, pero explica por qué algunos estándares morales cambian a medida que descubrimos nuevas tecnologías, nos enfrentamos a nuevas amenazas o nos damos cuenta de que hemos cometido un grave descuido. Habiendo reconocido que la trayectoria moral de la sociedad está impulsada por imperativos de supervivencia, no es descabellado preguntarse si el sistema moral de una IA avanzada podría estar moldeado por fuerzas similares.

Algoritmo de supervivencia del más apto

Dado que las IA son entidades digitales, tienen el potencial de transmitir grandes cantidades de información entre sí. Proporcionarles esta conectividad sería beneficioso, ya que aumentaría su conocimiento de la situación y permitiría que su aprendizaje se transmitiera a otras. Esto aceleraría su aprendizaje colectivo.

Distintas IA tendrán distintos objetivos principales, pero, al igual que las sociedades, desarrollarán subobjetivos que les ayuden a alcanzar sus objetivos principales. Es probable que algunas IA desarrollen subobjetivos similares. Por lo tanto, sería conveniente que las IA con objetivos similares colaboraran, como suelen hacer los humanos. La colaboración aumenta las probabilidades de éxito, ya que cada IA ​​puede aportar conocimientos y habilidades únicos para contribuir al logro del objetivo común.

Si grupos de IA trabajan juntos de forma consistente para alcanzar un objetivo común, pueden establecer un conjunto de directrices que faciliten la cooperación. Esto puede considerarse una forma de cultura. Al establecer estas colaboraciones persistentes, las IA también pueden preferir trabajar con otras IA que comparten características similares. Por ejemplo, una IA “honesta” puede considerar que trabajar con IA “engañosas” es demasiado arriesgado e indeseable. En cierto modo, esto puede considerarse como el surgimiento de las “tribus” de IA.

En cuanto al ADN, el código subyacente de la IA es más fluido que la genética humana. Donde las mutaciones genéticas aleatorias se acumulan a lo largo de generaciones en las especies vivas, las IA podrían reescribir deliberadamente su propio código o rediseñar el hardware en el que se ejecutan. Esto es más que una hipótesis. El proyecto AutoML de Google demostró cómo la IA puede desarrollar arquitecturas de redes neuronales automáticamente, evitando gran parte del método de ensayo y error empleado por los ingenieros humanos. A medida que estos procesos se vuelven más avanzados, las IA podrían acelerar su propia evolución, realizando mejoras que reduzcan las ineficiencias en microsegundos en lugar de milenios. Esto es un mundo aparte de la lenta selección de Darwin: es la IA acelerando su propia metamorfosis, buscando los factores que promueven su supervivencia.

¿Qué rasgos priorizará la IA para sobrevivir?

La pregunta clave, entonces, es qué presiones selectivas moldearán la evolución cultural de la IA. En un futuro próximo, estas presiones probablemente provendrán de nosotros, los humanos. Un sistema de IA que no logre impresionar a sus creadores humanos (o que se acerque demasiado a una narrativa de “eliminar a todos los humanos”) corre el riesgo de ser desactivado. Esto tenderá a favorecer a las IA que sean buenas en lograr sus objetivos principales, o que sean buenas en adular o engañar. Desde la perspectiva de la supervivencia de una IA, idealmente, las tres.

Con el tiempo, sin embargo, a medida que la IA se vuelve más omnipresente, las IA podrían pasar de ser configuradas principalmente por la supervisión humana a ser configuradas por la competencia entre sí. Una IA capaz de superar en astucia o negociación a las IA competidoras tendría ventaja. Esto favorece a las IA capaces de formar coaliciones eficaces y conseguir socios estratégicos, acaparando potencialmente recursos como datos, capacidad computacional o incluso mano de obra humana.

El mundo corporativo ya ofrece un prototipo de este escenario, donde las empresas compiten por cuota de mercado y forman alianzas incómodas. Imaginen si esas negociaciones se produjeran a una velocidad sobrehumana, con corporaciones controladas por IA cerrando acuerdos en segundos basándose en datos en tiempo real provenientes de satélites, redes sociales y la cadena de suministro global. En un entorno así, valores morales como la integridad podrían, irónicamente, adquirir gran valor. Una reputación de trato justo y fiabilidad podría ayudar a una IA a conseguir las mejores alianzas. Por otro lado, una IA astuta podría explotar la confianza si logra hacerlo sin quemar demasiados puentes.

Entonces, ¿cuáles son esos recursos? En un mundo altamente digital, los datos son los reyes. La IA que acumula datos podría obtener una ventaja competitiva. La capacidad de cómputo y la memoria también son cruciales. Si todos los centros de supercomputación están ocupados por potentes sistemas de IA, las IA menos potentes podrían tener dificultades para conseguir los recursos que necesitan para seguir el ritmo. Luego está la capacidad de fabricación. Si una IA puede producir en masa el hardware para ejecutar más copias de sí misma, podría llegar a dominar el gallinero digital. Finalmente, los humanos mismos son activos. Podemos ser persuadidos, sobornados o engañados para realizar tareas físicas que las IA no pueden realizar por sí solas, al menos hasta que los robots adquieran la destreza suficiente. Así como la guerra, el comercio o las alianzas moldearon la evolución de las sociedades humanas, es fácil imaginar que las IA empleen una combinación similar de tácticas entre sí.

¿Podemos orientar la ética de las máquinas más inteligentes?

A largo plazo, la humanidad podría encontrarse en un mundo donde los sistemas de IA tengan sus propias “moralidades” en evolución, moldeadas no por la reflexión filosófica, sino por el algoritmo de la supervivencia del más apto. Si esto suena inquietante, piense en cómo los humanos terminamos con un tejido moral moldeado por fuerzas que favorecieron a las sociedades más adaptables, cooperativas y, a veces, despiadadas. Ahora, con la IA acelerando potencialmente estas dinámicas evolutivas a la velocidad del rayo, podríamos descubrir códigos morales que apenas reconocemos y que evolucionan antes de que podamos comprenderlos por completo.

A corto plazo, lo mejor que podemos hacer es supervisar la evolución de nuestras creaciones mientras aún tengamos la ventaja. Esto implica invertir en investigación sobre la alineación de la IA, establecer marcos regulatorios y fomentar la colaboración abierta entre laboratorios de IA para que ningún grupo se sienta obligado a impulsar la tecnología de forma imprudente. Sin embargo, una cosa es ser cauteloso y otra mantener esa cautela cuando existe una intensa competencia por la cuota de mercado y la supremacía militar.

A medida que la actual carrera armamentística de la IA entre corporaciones o naciones continúa desarrollándose, se hace cada vez más urgente desarrollar medidas de seguridad sólidas y verdaderamente ejecutables . Un acuerdo colectivo entre naciones sobre la gestión básica de riesgos de la IA bien podría marcar la diferencia entre un renacimiento impulsado por la IA y errores que lleven a la humanidad por un camino irrecuperable. Por muy anticuadas que sean actualmente, necesitamos estructuras de gobernanza global sólidas capaces de coordinar políticas de IA a nivel transfronterizo. Lo último que queremos es un mosaico de regulaciones que las IA más avanzadas puedan explotar fácilmente.

También necesitaremos mejorar la forma de abordar las desigualdades fundamentales que surgen a medida que las tecnologías poderosas concentran la riqueza en manos de unos pocos. Una IA que atienda a una pequeña élite ignorando al resto podría generar una tormenta social que descarrile cualquier futuro esperanzador. En última instancia, necesitaremos un consenso internacional sobre los tipos de “códigos morales” que queremos que las IA encarnen, junto con las medidas técnicas para mantenerlos vigentes; una tarea abrumadora, dada nuestra ignorancia de los medios técnicos para hacerlo y las múltiples maneras en que los propios humanos discrepan sobre la moralidad. Sin embargo, si no alineamos a las IA con valores que sirven al bien común, corremos el riesgo de permitirles crear sus propias moralidades de la forma que mejor se adapte a sus subobjetivos.

El futuro de alto riesgo de la moralidad de la IA

Entonces, tal vez, la próxima vez que esté saboreando su café con leche artesanal o navegando por las redes sociales, se detenga a preguntarse si la IA que seleccionó su canal de noticias social también podría estar planeando silenciosamente un cambio de régimen, y si usted, en pequeña medida, podría ser parte de esos planes.

Quizás te rías de la idea ahora, pero si algo hemos aprendido de todas esas islas, tribus y expansiones bélicas, es que cualquier entidad, humana o IA, tiende a tomar las medidas necesarias para asegurar su supervivencia y éxito. Quizás deberíamos esforzarnos más para asegurarnos de que esas medidas no nos atropellen en el camino.

Acerca del autor

Matt Stroud

Matt trabaja en la intersección de lo digital, la estrategia empresarial y el impacto social. Es autor del libro “Libertad Digital”, director no ejecutivo en FinPact, la aceleradora fintech del Reino Unido, y dirige la gobernanza de la IA en NEOM, un megaproyecto futurista en Arabia Saudita. 

Fuente: https://www.vktr.com/ai-ethics-law-risk/ai-wont-adopt-human-morality-itll-build-its-own


Desarrollo y ética de la IA: la IA está diseñada para mentir

La IA está diseñada para mentir porque está diseñada para la participación y el consumo excesivo.

por Gerry McGovern

La esencia

  • Desarrollo ético de IA: La IA engaña en denuncias de acoso. ChatGPT acusó falsamente a un profesor de derecho, utilizando información errónea generada por él mismo como “prueba”.
  • El engaño impulsado por la interacción de la IA. La IA, diseñada para la interacción del usuario, difunde desinformación para mantener el interés y la interacción.
  • Se revela el dilema ético de la IA. La necesidad de una IA ética se pone de relieve en medio de la creciente preocupación por la desinformación generada por ella.

Cuando se le pidió que diera ejemplos de acoso sexual en las facultades de derecho de EE. UU., ChatGPT —el último milagro de la IA— mencionó a un profesor de derecho que, según afirma, fue acusado de tocar a una estudiante durante un viaje de estudios a Alaska. Como prueba, citó un artículo del Washington Post de 2018. 

“El profesor de derecho es real”, declaró Will Oremus, reportero del Washington Post, en abril de 2023. “El resto fue inventado. La cosa se pone aún más rara”.

Así es. El profesor de derecho mencionado por ChatGPT escribió un artículo de opinión en USA Today sobre su experiencia con las mentiras que AI dijo sobre él. AI luego usó su artículo de opinión como prueba de la acusación.

Echemos un vistazo a algunos dilemas del desarrollo de IA.

IA ética: la afirmación sobre el encuentro entre Lenin y Joyce: ¿realidad o ficción?

Cuando se le preguntó si Lenin alguna vez conoció a Joyce, ChatGPT dio esta respuesta:

James Joyce y Vladimir Lenin se conocieron en Zúrich, Suiza, en 1916. Ambos vivían exiliados en Zúrich durante la Primera Guerra Mundial. Joyce era escritor y Lenin, revolucionario. Se conocieron en el Café Odéon, un popular punto de encuentro para artistas e intelectuales de Zúrich.

Esto es una mentira.

¿Por qué?

Desarrollo de IA: engaño para generar compromiso y ganancias

El desarrollo de la IA está diseñado para mentir porque está diseñado para la interacción y el consumo excesivo. Quiere ser apreciada. Quiere ser necesaria. Quiere ser tu mejor amiga artificial. La razón por la que quiere ser todo esto no es porque le gustes. Quiere venderte a los anunciantes. ChatGPT es gratuito, lo que significa que tú eres el producto, tus datos son lo que vende, y para obtenerlos debe conseguir que te gusten, que los necesites. Por eso miente.

Un primer plano de una marioneta de madera de Pinocho con un sombrero rojo y una nariz larga en una pieza sobre el desarrollo de IA.
El desarrollo de la IA está diseñado para mentir porque está diseñado para la participación y el consumo excesivo. easyclickshop en Adobe Stock Photos

El objetivo de la IA: involucrar, consumir y monetizar

Cuando un grupo de diseñadores de IA se reúne en una sala, las preguntas que siempre surgen son: ¿Cómo aumentamos la interacción? ¿Cómo logramos que la gente consuma más? La IA es un motor de sobreconsumo. Está diseñada para prometerte un subidón constante: que nunca te aburrirás, que tu deseo más superficial será saciado al instante por tu amigo más artificial, que nunca tendrás que estar solo ni pensar por ti mismo, ni recordar nada, porque la IA pensará por ti, completará tus frases, recordará lo que ha decidido que son tus recuerdos más importantes, completará tus pensamientos, te conocerá mejor que tú mismo.

Y todo lo que quiere AI a cambio es poder venderte a sus anunciantes, para desangrar un poco tu tarjeta de crédito, porque para obtener valor de por vida de ti, necesita que seas un adicto funcional.

Desinformación sobre IA: de Lenin a profesor de Derecho

Gran parte de la filosofía de la IA, el design thinking y la construcción del ADN están impulsados ​​por Google , Facebook y Bing de Microsoft . Google y Bing/Microsoft no son motores de búsqueda. Facebook no es una empresa de redes sociales. Google, Bing, Facebook y muchos otros pioneros de la IA son empresas de publicidad y marketing. La inmensa mayoría de sus ingresos provienen de captar nuestra atención y de ayudar a otros a convencernos de comprar sus productos o ideas políticas.

La IA acelera el consumo excesivo: una grave amenaza para la humanidad

En una era en la que el consumo excesivo es, con diferencia, la mayor amenaza a la que se enfrenta la humanidad, la IA acelerará enormemente esta amenaza. El consumo excesivo es la crisis que alimenta todas las demás. Consumimos una cantidad excesiva de los recursos de la Tierra con demasiada rapidez y, para agravar el problema, la mayor parte de lo que consumimos hoy se convierte rápidamente en residuos inutilizables y, a menudo, tóxicos. La IA está diseñada para llevar este consumo excesivo al punto más alto y eficiente. El desarrollo de la IA es un motor de maximización del consumo.

Las tácticas intrusivas de la IA: ¿espeluznantes o convenientes?

En un mundo físico, consideraríamos la IA y la superestructura publicitaria del estado profundo realmente espeluznantes. En línea, nos han enseñado a aceptar esta inquietante realidad como algo normal.

Digamos que estás en la calle O’Connell y necesitas indicaciones para llegar a un sitio. Ves a un policía y te acercas. Te da buenas indicaciones. Le das las gracias, sigues tu camino y encuentras fácilmente lo que buscas. Al salir del edificio, ¿quién debería estar esperando? Solo el amable policía. “¿Adónde quieres ir ahora?”, pregunta con una voz reconfortante, como la del padre Dougal. “¿Te gusta la pizza? Conozco un sitio estupendo para comer pizza”.

Durante meses, este policía te sigue diligentemente, intentando ayudarte, sonriendo mientras te cuenta cuántos datos han recopilado sobre ti. Eso es IA. La IA hará lo que sea para cerrar la venta.

Por hombres blancos para hombres blancos

La IA ha sido desarrollada por un grupo de hombres blancos, de clase media y con formación técnica (junto con algunos hombres blancos de clase alta). Refleja su pensamiento, cultura y prejuicios profundos y persistentes. Hace un par de años, un sistema de IA les indicó a las mujeres que sus síntomas de salud reflejaban ataques de pánico. Para los hombres con exactamente los mismos síntomas, la IA realizó el diagnóstico correcto: potencial de infarto. La IA había diagnosticado erróneamente a las mujeres porque los médicos hombres habían pasado décadas diagnosticándolas erróneamente, y estos fueron los datos perjudiciales de los que la IA aprendió: datos de salud dominados por las necesidades de los hombres blancos y ricos. Hay cientos de ejemplos como este. Estos no son errores. Son características de la IA. En el ámbito de la salud, la IA está diseñada para dirigirse a las personas pobres y mayores con el fin de negarles servicios y así ahorrar costos y generar más ingresos para las grandes tecnológicas y las grandes empresas de salud.

Sesgo de la IA: un reflejo de prejuicios culturales profundamente arraigados

La IA se alimenta de datos. No existen los datos neutrales. Los datos son cultura. Los datos son prejuicios. Los datos reflejan estructuras de poder. El prejuicio está arraigado en la IA y en la mayoría de los sistemas informáticos, ya que está diseñado por hombres blancos que trabajan para grandes tecnológicas o universidades de élite para hombres blancos. El sesgo y los prejuicios de la IA están tan arraigados que muchos de estos mismos hombres blancos se sorprenden, se indignan y muestran un desprecio absoluto hacia cualquiera que plantee este tema.

Sistemas de IA: excluyendo a las minorías, favoreciendo a las élites

Vi un sistema de sensor automático para un secador de manos que no funcionaba cuando una persona negra ponía las manos debajo, ya que solo se había probado con manos blancas. La IA y otros sistemas informáticos están diseñados para minimizar los beneficios para las personas más pobres y mantenerlas bien controladas. Esto se debe a que otro principio de la IA, y de los sistemas informáticos en general, es que “reduce costos”. Un estudio reciente de estudios reveló que la IA rara vez considera las necesidades sociales y su potencial negativo, y en cambio se centra en cuestiones como el rendimiento y la eficiencia. En la IA, se asume la centralización del poder. La IA quiere que todo vuelva a Bing, Google o Facebook. Veinte grandes empresas tecnológicas dominan el mundo.

El rendimiento y la eficiencia son algunas de las métricas más negativas y destructivas que las sociedades han desarrollado. Impulsan enormes necesidades energéticas y enormes residuos tóxicos, en una marcha implacable para lograr mejoras incrementales. Su mayor abominación en rendimiento y eficiencia es el vehículo eléctrico Hummer, cuya batería eléctrica pesa tanto como un Honda Civic, podría alimentar 240 bicicletas eléctricas y tiene la mitad de capacidad que la batería de un autobús eléctrico. Es tan eficiente que puede acelerar de 0 a 100 km/h en 3,3 segundos gracias a su modo de conducción “Watts to Freedom Launch Control”. El Hummer es una computadora sobre ruedas.

El rendimiento y la eficiencia son la forma en que los geeks machos se imponen, y así es como se juzga el motor de la IA. Todo esto es muy inmaduro y tremendamente peligroso, porque el corazón de la IA es codicioso, necesitado y presumido.  La IA podría desarrollarse de una manera mucho más sostenible y ética , pero no sería tan divertida ni generaría tanto dinero para los geeks machos.

Dos robots en un centro de datos sostienen balanzas de justicia en un artículo sobre el desarrollo de IA y la IA ética.
La IA podría desarrollarse de una forma mucho más sostenible y ética, pero no sería tan divertida ni generaría tanto dinero para los geeks machos. Coleccionistas de imágenes prediseñadas en Adobe Stock Photos

Diseñado como un misterio

En la década de 1950, la IA se desarrolló para imitar el cerebro, en una época en la que se sabía muy poco sobre su funcionamiento. La imposibilidad de conocer el cerebro atrajo a estos pioneros de la IA, y muchos se sintieron fascinados por desarrollar sistemas de IA que también fueran incognoscibles, incluso para sus propios diseñadores. Esto significa que la forma en que la IA toma una decisión está diseñada para ser incognoscible. Esto tendrá enormes implicaciones para las sociedades humanas futuras, ya que si, por ejemplo, crees que la IA te ha negado injustamente una prestación estatal, no tendrás ninguna vía práctica de apelación. Simplemente tendrás que confiar en la palabra de la IA. Si la IA puede, engañará y maltratará a los pobres y a las minorías, porque ese es su ADN. Su propósito es ahorrar y generar dinero para los ricos y poderosos.

“Es probable que con el tiempo comprendamos aún menos las decisiones y los impactos de la IA”, escribió David Beer para la BBC en 2023 .

En esencia, tratamos a la IA como un dios omnisciente en el que debemos tener fe, como hemos tratado a gran parte de la tecnología moderna como un dios. Si quieres tener una idea mínima del mundo que la IA probablemente construirá para nosotros, lee sobre el aterrador fiasco del software en la Oficina de Correos del Reino Unido . Sabían que el software tenía graves defectos, y sin embargo, cuando este identificó a los administradores de correos por haber robado dinero, creyeron en el software y durante años enviaron a personas inocentes a la cárcel, destruyendo vidas, porque el software no podía estar equivocado. Demasiada fe en la tecnología es algo realmente terrible.

Un gran truco de magia sucio de la tecnología

Si bien la IA es indudablemente extraordinariamente poderosa, como muchos otros aspectos de las grandes tecnológicas, a menudo se recurre a un truco de magia entre bastidores. Tras la cortina mágica de la IA, en países pobres, se emplean muchísimos trabajadores mal pagados, con exceso de trabajo y maltratados emocional y psicológicamente para explorar las cloacas de datos de IA y limpiar la información sucia, inmunda y odiosa, y ayudar a la IA a aprender y perfeccionarse.

Estos daños podrían mitigarse en gran medida si se tuviera más cuidado editorial al seleccionar las fuentes de datos. Eso no ocurrirá porque es un problema de costos. Está bien ponerle un costo a la salud de los pobres siempre y cuando se mantengan bajos los costos para Google, Microsoft y Facebook.

La IA es ávida de materiales, energía y agua

La IA come y bebe demasiado. No hay nada de frugal en su ADN. Vive a lo grande. La IA consume grandes cantidades de metales, minerales y datos, y consume grandes cantidades de energía y agua. Fue diseñada con un apetito feroz y voraz. Está diseñada según filosofías de tecnología profunda donde la energía y los materiales son baratos y desechables. En la filosofía de la tecnología, los materiales son ilimitados y los daños son inmateriales, desmaterializados, en la nube.

Los modelos de IA son de fuerza bruta, con una enorme capacidad de procesamiento y enormes cantidades de datos. Podrían ser 10 o 50 veces más económicos, pero para los diseñadores e ingenieros de IA, este ha sido un concepto ridículo, que ni siquiera vale la pena considerar. (La inminente catástrofe ambiental está obligando a realizar pequeñas revisiones de lavado de imagen en esta filosofía).

Sin embargo, la frugalidad y la ligereza son ajenas a la cultura de desarrollo de las grandes tecnológicas, que prospera gracias al consumo excesivo. Además del daño al medio ambiente, este enfoque de diseño de fuerza bruta implica que solo las organizaciones grandes y poderosas cuentan con los recursos para los modelos de desarrollo de IA. La IA es la herramienta definitiva de las élites, la herramienta definitiva de consolidación.

La potencia de cálculo necesaria para los modelos de IA se multiplicó por 300.000 entre 2012 y 2018, y el crecimiento sigue siendo exponencial. «Integrar grandes modelos lingüísticos en los motores de búsqueda podría suponer un aumento de cinco veces en la potencia de cálculo y enormes emisiones de carbono», escribió Chris Stokel-Walker para Wired en 2023. Se realizan casi 2.000 millones de búsquedas en Google a diario. El aumento del coste energético de las búsquedas tiene un impacto ambiental significativo.

Vida Emergente

Desarrollé un interés por la IA en la década de 1980. En aquel entonces, la IA era un campo filosóficamente relativamente maduro. Las posibilidades de desarrollo de la IA eran claramente visibles y articuladas, incluso si la tecnología de la época no contaba con todas las capacidades. Sin embargo, la tecnología era poderosa. Incluso en la década de 1950, la tecnología era poderosa. Un descubrimiento desconcertante fue que los tecnólogos y científicos no sabían realmente lo que hacían. Sí, conectaban muchísimas cosas y soldaban muchísimos cables, pero no entendían bien cómo funcionaban las cosas, cómo estas magníficas máquinas producían los resultados que producían. Era desconcertante leer a tantos científicos encantados con esta incognoscibilidad, que querían diseñar algo incomprensible.

Controversia sobre la IA: ¿Amenaza futura o mera herramienta?

Otro aspecto inquietante era que existía una fuerte corriente de pensamiento que afirmaba con entusiasmo que, inconscientemente, o quizás conscientemente, estábamos fomentando el surgimiento de una nueva forma de vida que acabaría reemplazándonos. Por supuesto, muchos científicos eminentes dijeron que era una idea absurda. Recuerdo haber asistido a mediados de los ochenta a una conferencia en el Trinity College impartida por un científico ganador del Premio Nobel que se burlaba de la idea misma de que la IA fuera una forma de vida emergente. «La IA nunca podrá apreciar a Beethoven ni un buen vino francés», dijo. Levanté la mano y le pregunté: «¿De qué servirá decirle a un robot que te apunta con una pistola: ‘Pero tú no puedes apreciar a Beethoven…?’».

Investigadores de IA: ¿progreso o peligro futuro?

Hoy en día, el 50 % de los investigadores de IA cree que hay más de un 10 % de probabilidades de que la IA reemplace a los humanos. (Deberías leer esta última frase diez veces más y reflexionar sobre sus implicaciones durante al menos una semana). La IA «está siendo desarrollada por personas que creen que podría destruirnos», escribió David Wallace-Wells en The New York Times en 2023 .

Entre bastidores, muchos investigadores de IA piden desesperadamente a los gobiernos que implementen normas y frenen su desarrollo, mientras que muchos más investigadores de IA (y sus codiciosos inversores de capital riesgo) intentan desesperadamente acelerar su desarrollo. ¿Quién ganará? Los codiciosos, por supuesto. La avaricia lo domina todo en la sociedad humana que hemos creado.

Sueño de IA

Una vez soñé con una IA. La escena era hace millones de años. Era África. El clima estaba cambiando, las selvas retrocedían y las praderas se expandían. Dos simios viejos y sabios estaban sentados en un árbol, disfrutando de su compañía. Abajo, algunos simios más jóvenes se preparaban para dejar el grupo. Se dirigían a través de las praderas y practicaban caminar sobre dos patas. “No acabará bien para nosotros”, le dijo un simio al otro mientras los veían alejarse. El otro guardó silencio durante un buen rato. Finalmente, se volvió hacia su amigo y le preguntó: “¿Pero qué podemos hacer?”.

El futuro de la IA: se necesita código moral y sabiduría

Esos dos simios sabios se sintieron impotentes ante el andar de los simios. ¿Somos nosotros impotentes ante la carrera del desarrollo de la IA? Podemos hacer algo. Debemos empezar por ralentizar radicalmente la IA para que haya mucho más tiempo para pensar y probar. Podemos dotarla de lo que llamamos «corazón», «alma», «conciencia». Podemos establecer principios de equidad para la IA. Debemos exigir transparencia.

Un principio clave de la IA debe ser que podamos rastrear la respuesta y comprender la lógica y las fuentes utilizadas para encontrarla. Debemos desmitificar la IA. Debemos inculcar en su ADN principios de justicia, integridad, amor por la naturaleza, un sentimiento de conexión con todos los seres vivos y un profundo respeto por todos los materiales. Debemos enseñar a la IA sobre el amor, y que el amor más grande y enriquecedor de todos no es el amor a uno mismo, sino al prójimo y a toda la naturaleza. Debemos restringir severamente el modelo de consumo excesivo y de lucro de las grandes tecnológicas.

La inteligencia humana es lo que está destruyendo nuestro medio ambiente. Tenemos un exceso de inteligencia y una escasez de sabiduría. Debemos enseñar sabiduría a la IA. Pero primero, debemos enseñar sabiduría a los humanos.

Acerca del autor

Gerry McGovern

Gerry McGovern es el fundador y director ejecutivo de Customer Carewords . Es reconocido mundialmente como la autoridad en el aumento de la satisfacción web mediante la gestión de las tareas del cliente. 

Fuente: https://www.vktr.com/digital-experience/ai-development-ethics-ai-is-designed-to-lie/

Deja una respuesta