Las escuelas están agregando clases de ética a sus planes de estudios de informática. Los trabajos de lectura: ciencia ficción.
por GREGORY BARBE R
ESTA HISTORIA ES parte de una serie sobre cómo aprendemos, desde la realidad aumentada hasta los dispositivos de entrenamiento musical.
¿Es posible avanzar hacia la definición de los intereses emocionales de la tecnología?
Eso es crucial, dice Burton, porque la mayoría de sus estudiantes son programadores. En la Universidad de Illinois-Chicago, donde Burton enseña, todos los estudiantes de la especialidad en ciencias de la computación deben tomar su curso, cuyo plan de estudios está repleto de ciencia ficción. La idea es permitir que los estudiantes den un paso atrás de sus hackatones de 24 horas y comiencen a pensar, a través de la narrativa y el carácter, sobre los productos que algún día construirán y venderán. “Las historias son una buena forma de frenar a la gente”, dice Burton. Quizás incluso puedan ayudar a producir un ingeniero más ético.
Hay un debate largo y enredado sobre cómo enseñar ética a los ingenieros y si vale la pena hacerlo. En 1996, un grupo de investigadores escribió una convocatoria en la destacada revista Communications of the ACM para la ética en los cursos de comp-sci. En el siguiente número, apareció una carta al editor de un par de informáticos argumentando lo contrario. “Las preocupaciones éticas y sociales pueden ser importantes, pero como debatir la moralidad de las armas nucleares no es hacer física, discutir el impacto social y ético de la informática no es hacer ciencias de la computación”, escribieron. Esta fue la posición que, en general, se afianzó.
Pero Team Ethics está regresando. Con la moralidad de Big Tech nuevamente cuestionada, escuelas como MIT, Carnegie Mellon y Stanford han lanzado nuevos cursos de ética con fanfarria . En algunos casos, los estudiantes incluso exigen dicha educación, dice Casey Fiesler, profesor de la Universidad de Colorado que enseña ética informática y estudia cómo se enseña. Una pasantía en Facebook, una vez considerada como una maravilla, ahora es igual de probable que sorprenda. Los estudiantes buscan un poco de orientación moral.
Aquellos que enseñan ética no necesitan buscar lecciones muy lejos. Todos los días hay un nuevo escándalo: Google está en problemas por cómo maneja los prejuicios políticos; Amazon escucha mientras le gritas a Alexa . También existe el canon creciente de estudios de casos en los que incluso su abuelo totalmente desconectado podría llevar a cabo la corte con destreza: la investigación de ProPublica sobre el sesgo en los algoritmos de reincidencia que mantuvieron a los hombres negros en la cárcel por más tiempo, o el raspado de datos de usuarios de Facebook por Cambridge Analytica . Para que todo esto tenga sentido, muchos creen que los estudiantes de ingeniería necesitan una educación clásica en humanidades, basada en la filosofía. (Simplemente no repita sus prejuicios en el aula: Ética Twitter recientemente se erizó sobre un curso del MIT sobre el sesgo de la IA construido en torno a las obras de blancos muertos).
Hay razones para salir de la vida real, dice Judy Goldsmith, profesora de ciencias de la computación en la Universidad de Kentucky. Goldsmith comenzó a enseñar ciencia ficción hace una década, después de que los estudiantes se quejaran de una tarea de examen. En su lugar, les dio la opción de analizar una obra de ciencia ficción. Eso dio lugar a un curso propio, “Ciencia ficción y ética informática”. Su propia experiencia estaba en las matemáticas abstractas de los algoritmos, no en la filosofía. “Tenía muy poca idea de lo que estaba haciendo”, dice. Sintiéndose algo a la deriva, finalmente discutió con Burton, quien había completado una disertación sobre ética y Las crónicas de Narnia, para que la ayudara a renovar el curso.
El matemático y el estudioso de la religión pronto se dieron cuenta de que se acercaban a la ciencia ficción de manera diferente. Goldsmith vio en la ficción una forma de hacer avanzar la tecnología actual, de hacer que sus estudiantes imaginen los dilemas que surgirían de los próximos avances en cosas como drones asesinos y carebots que atienden a los ancianos. Ciencia ficción, en otras palabras, como un ejercicio de predicción, una forma de prepararnos para lo que pronto vendrá. Mucha gente lo encuentra útil. Pregúntele al ejército de consultores futuristas que entran en las salas de juntas corporativas para involucrar a los ejecutivos en ejercicios de construcción del mundo.
Burton argumenta que no tiene mucho sentido tratar de ser predictivo, especialmente si los ingenieros no están equipados para manejar los dilemas que tienen delante. “Hay todo tipo de cosas horribles que Facebook ha hecho y que incluso ellos probablemente se dieron cuenta de que estaba un poco fuera de balance”, dice. “Pero creo que es fácil confundir lo fácil que es, cuando estás en ese lugar, convencerte de que lo que estás haciendo es normal”. La ciencia ficción, sí, ofrece cierta distancia a los titulares, así como un interés sostenido en las trampas de la innovación. Pero el objetivo de la ficción, dice Burton, es abrir los problemas humanos existentes. Básicamente, se reduce a la empatía. La historia corta de Ken Liu “Aquí y ahora” podría iniciar un debate sobre la privacidad digital; “Hoy soy Paul” de Martin Shoemaker habla de las relaciones robot-humano.
Fiesler, profesor de la Universidad de Colorado, busca un camino intermedio. Prefiere la ciencia ficción con un vínculo estrecho con el mundo real, como Black Mirror . “Todavía se puede ver el hilo de aquí para allá”, dice. Y lo combina con estudios de casos de la vida real, creyendo que la combinación de lo real y lo especulativo guía a sus estudiantes a conocimientos prácticos sobre la naturaleza y los riesgos de trabajar en tecnología. Aún mejor, les haría aprender ética en los mismos cursos en los que aprenden programación, para que aprendan a detectar cuestiones morales y posibles soluciones en el contexto del código.
La pregunta fundamental, por supuesto, es si algo de esto se mantiene. ¿Los estudiantes instruidos en ética mejorarán tanto en el reconocimiento de sesgos tecnológicos como en la implementación de herramientas de código para solucionarlos? ¿Las nociones blandas de empatía y conflicto en la ficción narrativa hacen que los estudiantes de ciencias de la computación sean programadores más sensibles? Burton dice que no se trata solo de identificar un problema de codificación específico; la ética toca lo que significa ser una persona a merced de una gran empresa y las fuerzas del progreso tecnológico. Quizás la exposición a algo fuera de la mentalidad del código impulsada por objetivos, estar inmerso, al menos durante un semestre, en un modo de pensar enriquecido y complicado por la sustancia humana, podría hacer un bien intangible, hacernos empleados más comprometidos y críticos. Como Liu escribió sobre el género enNature en 2017, “aunque la ciencia ficción no sirve de mucho para conocer el futuro, está subestimada como una forma de permanecer humano frente al cambio incesante”.
Cuando estudié ciencias de la computación no hace mucho tiempo (pero el tiempo suficiente para que Google todavía dijera “No seas malvado”), mi universidad se basó en Filosofía 101 para hacer el trabajo de la formación ética. Estoy seguro de que hubo mérito en hacernos aprender a escribir y discutir, en nuestra exposición a estudiantes de otros departamentos. Quizás todavía tengo a Platón y Descartes archivados en alguna Siberia neuronal. Pero nunca se me ocurrió que los clásicos serían útiles como programador.
En cambio, pienso en un curso en el que era el único estudiante de informática en la sala: Introducción a la teoría de los medios. Leemos a McLuhan y Foucault. Hubo estudios de casos, ahora olvidados. Recuerdo una película. Imaginó el trabajo transfronterizo en la era de la realidad virtual, una inquietante meditación sobre lo que sucede cuando la tecnología elimina la necesidad de un cuerpo físico. Estaba trabajando en un laboratorio que dependía de Mechanical Turk , un servicio que etiqueta datos para investigadores. Por primera vez, consideré lo que era: no un servicio, sino trabajadores.
Fuente: https://www.wired.com/story/how-we-learn-computer-science-ethics/