¿Existe un conjunto uniforme de leyes morales y, de ser así, podemos enseñarle a la inteligencia artificial esas leyes para evitar que nos haga daño? Esta es la pregunta explorada en un cortometraje original recientemente estrenado por The Guardian.

por Vanessa Bates Ramirez

¿Existe un conjunto uniforme de leyes morales y, de ser así, podemos enseñarle a la inteligencia artificial esas leyes para evitar que nos haga daño? Esta es la pregunta explorada en un cortometraje original recientemente estrenado por The Guardian.

En la película, los creadores de una IA con inteligencia general llaman a un filósofo moral para que les ayude a establecer un conjunto de pautas morales para que la IA las aprenda y las siga, lo que no es una tarea fácil.

Los dilemas morales complejos a menudo no tienen una respuesta clara, y los humanos aún no han sido capaces de traducir la ética en un conjunto de reglas inequívocas. Es cuestionable que exista tal conjunto de reglas, ya que los problemas éticos a menudo implican sopesar factores entre sí y ver la situación desde diferentes ángulos.

Entonces, ¿cómo vamos a enseñar las reglas de la ética a la inteligencia artificial y, al hacerlo, evitar que la IA nos haga un gran daño o incluso nos destruya? Esto puede parecer un tema de ciencia ficción, pero se ha convertido en un tema de debate generalizado en los últimos años.

OpenAI, por ejemplo, se financió con mil millones de dólares a finales de 2015 para aprender a construir una IA segura y beneficiosa. Y a principios de este año, los expertos en IA se reunieron en Asilomar, California, para debatir las mejores prácticas para desarrollar una IA beneficiosa.

Se han expresado preocupaciones acerca de que la IA sea racista o sexista y que refleje los prejuicios humanos de una manera que no pretendíamos, pero solo puede aprender de los datos disponibles, que en muchos casos son muy humanos.

Por mucho que los ingenieros de la película insistan en que la ética se puede “resolver” y debe haber un “conjunto definitivo de leyes morales”, el filósofo sostiene que tal conjunto de leyes es imposible, porque “la ética requiere interpretación”.

Hay una sensación de urgencia en la conversación, y con razón, mientras tanto, la IA está escuchando y ajustando su algoritmo. Una de las características más difíciles de comprender, pero más crucial, de la informática y la IA es la velocidad a la que está mejorando y la sensación de que el progreso seguirá acelerándose. Como dice uno de los ingenieros de la película, “La explosión de inteligencia será más rápida de lo que podemos imaginar”.

Futuristas como Ray Kurzweil predicen que esta explosión de inteligencia conducirá a la singularidad: un momento en el que las computadoras, que hacen avanzar su propia inteligencia en un ciclo acelerado de mejoras, superan con creces toda la inteligencia humana. Las preguntas tanto en la película como entre los principales expertos en inteligencia artificial son cómo será ese momento para la humanidad y qué podemos hacer para garantizar que la superinteligencia artificial nos beneficie en lugar de dañarnos.

Los ingenieros y filósofos de la película se sienten mortificados cuando la IA se ofrece a “actuar como siempre han actuado los humanos”. La idea de la IA de aprender solo de los líderes religiosos de la historia se enfrenta con aún más ansiedad. Si la inteligencia artificial va a volverse más inteligente que nosotros, también queremos que sea moralmente mejor que nosotros. O como dice el filósofo de la película de manera tan concisa: “No podemos confiar en que la humanidad proporcione un modelo para la humanidad. Ni que decir.”

Si no podemos enseñar ética a una IA, terminará enseñándose a sí misma, y ​​¿qué pasará entonces? Puede decidir que los humanos no podemos manejar el asombroso poder que le hemos otorgado, y despegará o tomará el control.

Crédito de la imagen:  The Guardian / YouTube

Deja un comentario