Estudiantes y profesores no se ponen de acuerdo sobre si el célebre chatbot de inteligencia artificial, ChatGPT, es una herramienta de investigación o un propulsor del engaño.
por SOFIA BARNETT
La inteligencia artificial podría ser más tonta que los humanos. Sí, incluso ChatGPT. Esa es la conclusión a la que llegó el estudiante Kai Cobbs, apenas en su segundo año de carrera en la Universidad de Rutgers, en New Jersey, Estados Unidos.
Después de escuchar a sus compañeros hablar maravillas de la ya célebre herramienta de inteligencia artificial generativa, ChatGPT, Cobbs decidió jugar con el chatbot mientras escribía un ensayo sobre la historia del capitalismo. Puesto que ChatGPT es conocido por su capacidad para generar contenidos escritos extensos en respuesta a preguntas del usuario, Cobbs esperaba que produjera una contestación matizada y reflexiva a sus específicas indicaciones de investigación. Pero la pantalla le mostró un artículo genérico, y mal escrito, que él nunca se atrevería a presentar como propio.
ChatGPT no es tan brillante como lo pintan
“La calidad de la redacción era espantosa. Era torpe y carecía de complejidad”, refiere Cobbs. “Lógicamente, no me puedo imaginar a un estudiante utilizando un escrito generado a través de ChatGPT para un trabajo, o cualquier otra cosa, cuando el contenido es sencillamente malo”.
No todo el mundo comparte el desdén de Cobbs. Desde que OpenAI lanzó el chatbot en noviembre del año pasado, los educadores han estado luchando con la forma de manejar una nueva ola de trabajos de los estudiantes que han sido producidos con la ayuda de la inteligencia artificial. Mientras que algunos sistemas de enseñanza pública, como el de la ciudad de Nueva York, han prohibido el uso de ChatGPT en los dispositivos y redes escolares para frenar las trampas, las universidades se han mostrado reacias a seguir el ejemplo. En la enseñanza superior, la introducción de la inteligencia artificial generativa ha planteado difíciles cuestiones sobre la definición de plagio y la integridad académica en los campus, donde las nuevas herramientas digitales de investigación entran en juego constantemente.
No nos equivoquemos, el nacimiento de ChatGPT no marca la aparición de las preocupaciones relacionadas con el uso indebido de internet en el mundo académico. Cuando se lanzó Wikipedia en 2001, las universidades se apresuraron a descifrar sus propias filosofías de investigación y su concepción del trabajo académico honesto, ampliando los límites de sus políticas para adaptarse al ritmo de la innovación tecnológica. Ahora los retos son un poco más complejos, ya que los centros de enseñanza se plantean cómo tratar el trabajo producido por bots. El mundo de la educacion superior está jugando a ponerse al día, ajustando sus normas, expectativas y percepciones al igual que otras profesiones. La única diferencia es que ahora internet puede pensar por sí misma.
ChatGPT llega a los salones de clase y no es el mejor estudiante
El chatbot de inteligencia artificial generativa ha avivado el miedo a un desastre en la educación. Pero hay docentes que lo ven como el reinicio que esta necesita.
ChatGPT: ¿Qué es el plagio?
Según ChatGPT, la definición de plagio es el acto de utilizar el trabajo o las ideas de otra persona sin dar el debido crédito a su autoría original. Pero cuando el trabajo es generado por algo y no por alguien, esta definición es difícil de aplicar. En palabras de Emily Hipchen, miembro del Comité del Código Académico de la Universidad Brown, el uso de inteligencia artificial generativa por parte de los estudiantes conduce a un punto crítico de controversia. “Si [el plagio] es robar a una persona“, comenta Hipchen, “entonces no sé si tenemos una persona a la que se le está robando”.
Hipchen no está sola en sus especulaciones. Alison Daily, directora del Programa de Integridad Académica de la Universidad de Villanova, en Pensilvania, también está lidiando con la idea de clasificar a un algoritmo como persona, especialmente si el algoritmo genera texto.
Daily cree que profesores y estudiantes tendrán que entender que las herramientas digitales que generan texto, en lugar de solo recopilar datos, deberán clasificarse dentro del mundo de las cosas de las que se puede plagiar.
Aunque Daily reconoce que este crecimiento tecnológico suscita nuevas preocupaciones en el mundo académico, no le parece un terreno totalmente inexplorado. “Creo que ya llevamos un tiempo en una versión de este territorio”, piensa Daily. “Los estudiantes que cometen plagio suelen ‘tomar prestado’ material de ‘algún sitio’; por ejemplo, de un sitio web en el que no está clara la autoría. Sospecho que la definición de plagio se ampliará para incluir cosas que producen“.
Con el tiempo, según Daily, un estudiante que utilice contenido de ChatGPT no será considerado diferente de otro que copie y pegue pedazos de texto de Wikipedia sin atribución alguna.
¿Qué piensan los estudiantes sobre ChatGPT?
Ahora, la opinión de los estudiantes sobre ChatGPT es otro tema totalmente distinto. Hay quienes, como Cobbs, no pueden imaginar poner su nombre en algo generado por un bot, pero hay otros que lo ven como una herramienta más, como el corrector ortográfico o incluso una calculadora. Para Jacob Gelman, estudiante de segundo año en la Universidad de Brown, ChatGPT existe simplemente como un cómodo asistente de investigación, y nada más.
“Llamar ‘trampa’ al uso de ChatGPT para obtener fuentes fiables de internet es absurdo”, cree Gelman. “Para mí, ChatGPT es el equivalente de Grammarly en investigación; lo uso por practicidad, y eso es todo”. Cobbs expresó un sentimiento similar, comparando el bot de inteligencia artificial con “una enciclopedia en línea”.
Pero así como hay estudiantes, como Gelman, que utilizan el bot para acelerar su investigación, otros aprovechan la alta capacidad de ChatGPT para generar trabajos completos. Podría parecer obvio qué se considera hacer trampas en este caso, pero las distintas facultades ofrecen puntos de vista opuestos.
Según Carlee Warfield, presidenta de la Junta de Honor Estudiantil del Bryn Mawr College, el centro considera plagio cualquier uso de estas plataformas de inteligencia artificial. La popularización de la herramienta solo exige una mayor atención a la hora de evaluar la intención que hay detrás de las infracciones de los estudiantes. Warfield explica que los estudiantes que entregan redacciones producidas íntegramente por inteligencia artificial son categóricamente diferentes de los que ‘toman prestado’ de herramientas en línea sin conocer los estándares para citar y atribuir correctamente. Dado que el fenómeno ChatGPT es todavía nuevo, es comprensible la confusión de los estudiantes en torno a la ética. Además, no se sabe cuáles políticas seguirán vigentes una vez que pase la tormenta.
Nuevas regulaciones sobre integridad académica
En medio de cambios fundamentales tanto en el ámbito académico como en el tecnológico, las universidades se ven obligadas a reconsiderar sus definiciones de integridad académica para reflejar razonablemente las circunstancias de la sociedad de hoy. El único problema es que la sociedad no es estática.
“El código de integridad académica de Villanova se actualizará para incluir algo que prohíba el uso de estas herramientas para generar texto que luego los estudiantes presentan como texto generado por ellos de forma independiente”, explicó Daily, “pero creo que es algo que evoluciona. Y lo que puede hacer y lo que necesitaremos para vigilarlo también será una especie de objetivo móvil”.
Además de las cuestiones cada vez más complejas sobre si ChatGPT es una herramienta de investigación o un motor de plagio, también existe la posibilidad de que pueda utilizarse para el aprendizaje. En otros entornos educativos, los profesores lo ven como una forma de mostrar a los alumnos los defectos de la inteligencia artificial. Algunos profesores ya están modificando su forma de enseñar asignando a los alumnos tareas que los robots no podrían completar, como las que requieren detalles personales o anécdotas. También está la cuestión de detectar el uso de inteligencia artificial en el trabajo de los estudiantes, lo que está generando una industria propia.
En última instancia, destaca Daily, las escuelas pueden necesitar normas que reflejen una serie de variables.
“Creo que se desarrollarán algunas políticas generales que básicamente digan: ‘a menos que tengas permiso de un profesor para utilizar herramientas de inteligencia artificial, su uso se considerará una violación del código de integridad académica’”, propone Daily, “lo que da a la facultad un amplio margen para utilizarlas en su enseñanza o en sus tareas, siempre y cuando estipulen explícitamente que lo permiten”.
¿Cómo piensa ChatGPT?
En cuanto a ChatGTP, el bot está de acuerdo: “Se espera que los avances en campos como la inteligencia artificial impulsen una innovación significativa en los próximos años”, escribe cuando se le pregunta cómo las escuelas pueden combatir la deshonestidad académica. “Las escuelas deben revisar y actualizar constantemente sus códigos de honor académico a medida que evoluciona la tecnología para asegurarse de que están abordando las formas actuales en que la tecnología se está utilizando en entornos académicos.”
Pero, claro, eso es lo que diría un bot.