Robot consciente

por Anand Vaidya

En el Star Trek: The Next Generation episodio “La medida de un hombre,” acerca de Data, un miembro de la tripulación androide de la Enterprise, debe ser desmontado para fines de investigación a menos que el capitán Picard pueda argumentar que Data se merece los mismos derechos que un ser humano. Naturalmente, surge la pregunta: ¿Cuál es la base sobre lo que algo tiene derechos? ¿Qué le da a una entidad una posición moral?

The measure of a man
The measure of a man

Ver episodio “The Measure of a Man (La medida de un hombre), Star Trek TNG” con subtítulos en español.

El filósofo Peter Singer sostiene que las criaturas que pueden sentir dolor o sufrir tienen derecho a una posición moral. Argumenta que los animales no humanos tienen una posición moral, ya que pueden sentir dolor y sufrir. Limitarlo a las personas sería una forma de especismo, algo parecido al racismo y al sexismo.

Sin respaldar la línea de razonamiento de Singer, podríamos preguntarnos si puede extenderse más a un robot Android como Data. Requeriría que Data pueda sentir dolor o sufrir. Y cómo responda a estos depende de cómo comprenda la conciencia y la inteligencia.

A medida que la tecnología de inteligencia artificial real avanza hacia las versiones imaginadas de Hollywood, la cuestión de la posición moral se vuelve más importante. Si las IA tienen una posición moral, razonamos los filósofos como yo, podría deducirse que tienen derecho a la vida. Eso significa que no puede simplemente desmantelarlos, y también podría significar que las personas no deberían interferir en la consecución de sus objetivos.

Robot consciente
Robot consciente

Dos sabores de inteligencia y una prueba

La máquina de ajedrez Deep Blue de IBM se entrenó con éxito para vencer al gran maestro Gary Kasparov. Pero no pudo hacer nada más. Esta computadora tenía lo que se llama inteligencia de dominio específico.

Por otro lado, existe el tipo de inteligencia que permite la capacidad de hacer bien una variedad de cosas. Se llama inteligencia general de dominio. Es lo que permite a las personas cocinar, esquiar y criar a sus hijos: tareas relacionadas, pero también muy diferentes.

Inteligencia artificial general, AGI, es el término para máquinas que tienen inteligencia general de dominio. Podría decirse que ninguna máquina ha demostrado todavía ese tipo de inteligencia. Este verano, una startup llamada OpenAI lanzó una nueva versión de su modelo de lenguaje Generative Pre-TrainingGPT-3 es un sistema de procesamiento de lenguaje natural, entrenado para leer y escribir para que las personas puedan entenderlo fácilmente.

Atrajo atención inmediata, no solo por su impresionante capacidad para imitar florituras estilísticas y armar contenido plausible, sino también por lo lejos que había llegado de una versión anterior. A pesar de este impresionante rendimiento, GPT-3 en realidad no sabe nada más allá de cómo unir palabras de varias maneras. AGI permanece bastante lejos.

La prueba de Turing, que lleva el nombre del investigador pionero en IA Alan Turing, ayuda a determinar cuándo una IA es inteligente. ¿Puede una persona que conversa con una IA oculta saber si es una IA o un ser humano? Si no puede, entonces a todos los efectos prácticos, la IA es inteligente. Pero esta prueba no dice nada sobre si la IA podría estar consciente.

Dos clases de conciencia

La conciencia tiene dos partes. Primero, está el aspecto de cómo es la parte sensorial de la conciencia de una experiencia. Los filósofos llaman a esto conciencia fenoménica. Se trata de cómo experimentas un fenómeno, como oler una rosa o sentir dolor.

Por el contrario, también existe la conciencia de acceso. Esa es la capacidad de informar, razonar, comportarse y actuar de manera coordinada y receptiva a los estímulos basados ​​en objetivos. Por ejemplo, cuando le paso el balón de fútbol a mi amigo haciendo una jugada rumbo a la portería contraria, estoy respondiendo a estímulos visuales, actuando desde un entrenamiento previo y persiguiendo una meta determinada por las reglas del juego. Hago el pase automáticamente, sin deliberación consciente, en el curso del juego.

La visión ciega ilustra muy bien la diferencia entre los dos tipos de conciencia. Alguien con esta condición neurológica podría informar, por ejemplo, que no puede ver nada en el lado izquierdo de su campo visual. Pero si se les pide que tomen un bolígrafo de una serie de objetos en el lado izquierdo de su campo visual, pueden hacerlo de manera confiable. No pueden ver el bolígrafo, pero pueden cogerlo cuando se les pide, un ejemplo de acceso a la conciencia sin una atención fenomenal.

Los datos son un androide. ¿Cómo se desarrollan estas distinciones con respecto a él?

El dilema de Data

El androide Data demuestra que es consciente de sí mismo, ya que puede controlar si, por ejemplo, tiene una carga óptima o si hay daños internos en su brazo robótico.

Data también es inteligente en el sentido general. Hace muchas cosas distintas con un alto nivel de dominio. Puede volar el Enterprise, recibir órdenes del capitán Picard y razonar con él sobre el mejor camino a seguir.

También puede jugar al póquer con sus compañeros en la tripulación, cocinar, discutir temas de actualidad con amigos cercanos, luchar con enemigos en planetas alienígenas y participar en diversas formas de trabajo físico. Los datos tienen conciencia de acceso. Claramente pasaría la prueba de Turing.

Sin embargo, lo más probable es que Data carezca de una conciencia fenomenal; por ejemplo, no se deleita con el aroma de las rosas ni experimenta dolor. Encarna una versión gigante de la vista ciega. Es consciente de sí mismo y tiene conciencia de acceso, puede tomar la pluma, pero en todos sus sentidos carece de una conciencia fenomenal.

Ahora, si Data no siente dolor, al menos una de las razones que ofrece Singer para otorgarle a una criatura una posición moral no se cumple. Pero Data podría cumplir la otra condición de poder sufrir, incluso sin sentir dolor. Es posible que el sufrimiento no requiera una conciencia fenomenal como lo hace esencialmente el dolor.

Por ejemplo, ¿qué pasaría si el sufrimiento también se definiera como la idea de no poder perseguir una causa justa sin causar daño a los demás? Supongamos que el objetivo de Data es salvar a una compañera de la tripulación, pero no puede alcanzarla debido al daño en una de sus extremidades. La reducción del funcionamiento de Data que le impide salvar a su compañero de tripulación es una especie de sufrimiento no fenomenal. Hubiera preferido salvar al compañero de tripulación y estaría mejor si lo hiciera.

En el episodio, la pregunta no depende de si Data es consciente de sí mismo, eso no está en duda. Tampoco se trata de si es inteligente; demuestra fácilmente que lo es en el sentido general. Lo que no está claro es si es fenomenalmente consciente. Data no se desmantela porque, al final, sus jueces humanos no pueden ponerse de acuerdo sobre el significado de la conciencia para la posición moral.

¿Debe una IA tener una posición moral?

Data es amable; actúa para apoyar el bienestar de sus compañeros de tripulación y de aquellos que encuentra en planetas alienígenas. Obedece las órdenes de la gente y parece poco probable que les haga daño, y parece proteger su propia existencia. Por estas razones, parece pacífico y más fácil de aceptar en el reino de las cosas que tienen valor moral.

Pero, ¿qué pasa con Skynet en las películas de Terminator ? ¿O las preocupaciones expresadas recientemente por Elon Musk acerca de que la IA es más peligrosa que las armas nucleares y por Stephen Hawking sobre la IA que acabaría con la humanidad ?

Los seres humanos no pierden su derecho a una posición moral solo porque actúan en contra de los intereses de otra persona. De la misma manera, no se puede decir automáticamente que el hecho de que una IA actúe en contra de los intereses de la humanidad o de otra IA no tenga una posición moral. Puede que esté justificado luchar contra una IA como Skynet, pero eso no le quita su posición moral. Si la posición moral se da en virtud de la capacidad de sufrir de manera no fenomenal, tanto Skynet como Data la obtienen incluso si solo Data quiere ayudar a los seres humanos.

Todavía no hay máquinas de inteligencia general artificial. Pero ahora es el momento de considerar qué se necesitaría para otorgarles una posición moral. La forma en que la humanidad elija responder a la cuestión de la posición moral de las criaturas no biológicas tendrá grandes implicaciones en la forma en que nos ocupamos de las IA futuras, ya sean amables y útiles como Data, o emprendedoras de destrucción, como Skynet.

Lea el artículo original.

Dibujo: Ico Maker  /  Shutterstock.com

Fuente: https://singularityhub.com/2020/10/28/if-a-robot-is-conscious-is-it-ok-to-turn-it-off-the-moral-implications-of-building-true-ais/

Sobre el autor ANAND VAIDYA:

Anand Vaidya
Anand Vaidya

Soy profesor de filosofía. Trabajo principalmente en las áreas de epistemología, filosofía de la mente, pensamiento crítico y justicia social. Mi enfoque de la filosofía es buscar la comprensión y presentar al público no académico una comprensión de un problema de la condición humana, que se analiza a través de una filosofía intercultural y multidisciplinaria…

Deja una respuesta