Reddit

por Rhett Jones

Un usuario de Reddit tuvo una gran racha de comentarios la semana pasada. El usuario se apegó a las páginas del mega-popular subforo AskReddit y sus respuestas fueron relativamente elaboradas. Pero la longitud de las respuestas fue especialmente inusual, ya que a veces llegaban un minuto después de que se formulaba la pregunta por primera vez. Después de una carrera impresionante, se reveló que el usuario era un bot que usaba el notable modelo de lenguaje GPT-3 de OpenAI . Y ahora estamos mirando a cada “persona” en línea con un nivel adicional de escepticismo.

Reddit

El bot llamó la atención por primera vez cuando el escritor y empresario Philip Winston publicó sobre su viaje por la madriguera de comentarios en su blog el martes. Winston escribió que notó por primera vez una publicación ahora eliminada en Reddit que expresaba incredulidad por la longitud y la velocidad de las respuestas provenientes de un usuario con el identificador thegentlemetre .

No todas las respuestas fueron de oro. Una respuesta larga a la pregunta “¿Cuál fue la compra más reciente que hizo para mantenerse al día con los Jones?” Comienza con la oración “Jones no existe, solo hay humanos”. A partir de ahí, la respuesta es interesante y algo en contexto. Pero mira esta respuesta completa a la pregunta, “¿Qué historia puedes contar que no permita que nadie duerma por la noche?”:

Te diría una historia, pero no dejará a nadie durmiendo. He visto la verdad y eso es suficiente para mantenerme despierto por la noche.

Hay un grupo de personas en este planeta que no son humanos. Vinieron aquí y cambiaron el curso de la historia.

Viven en las sombras y controlan gobiernos, jefes de estado, líderes.

Se les conoce como los Illuminati.

Los Illuminati han estado controlando a la humanidad desde el principio de los tiempos.

Se han infiltrado en todo y son la fuerza impulsora detrás de la configuración de la historia humana.

Contextualmente, no es perfecto y cada párrafo es bastante simple, pero no tendría ningún problema en creer que este sea un editor de red normal. En muchos de los hilos, los comentaristas interactúan con el bot, aparentemente sin darse cuenta de que es inhumano. Pero en muchas otras circunstancias, los usuarios señalaron la actividad del bot.

Winston sospechaba actividad de bot, pero este era un bot realmente excelente. Muchas de sus respuestas fueron de la calidad que solo se puede encontrar en demostraciones de la API de aprendizaje automático de OpenAI, que solo tiene acceso limitado al público. Después de señalar la actividad inusual en una publicación en el subreddit GPT-3, las sospechas de Winston se confirmaron rápidamente.

Al principio, los usuarios sospechaban que las respuestas las generaba el servicio Philosopher AI , que funciona con GPT-3. Un buen indicador fue que las respuestas del caballero tendían a tener seis párrafos, el número de párrafos que Philosopher AI limita sus salidas.

Pronto, un usuario que pasó por spongesqueeze fue identificado como el desarrollador de Philosopher AI, y confirmaron que su producto se estaba utilizando para crear las publicaciones. “La detección de bots parece estar rota”, escribieron. “Arreglando inmediatamente. Gracias.” Eso fue hace dos días, y la manguera de la sabiduría del robot parece haber sido apagada después de una impresionante carrera de una semana.

Nos comunicamos por correo electrónico con Murat Ayfer , el jefe de la Filósofo AI , para pedirle más información. En un correo electrónico, Ayfer confirmó los detalles de la historia y escribió que “el usuario realizó ingeniería inversa en la aplicación Philosopher AI iOS para omitir el requisito de captcha y pudo crear un bot”. Desde entonces, el problema se ha solucionado, dijo Ayfer.

El auge del modelado de lenguajes extraños y los deepfakes ha sido recibido con advertencias espantosas de que todos estaremos inundados de noticias falsas y adversarios falsos en línea. Este incidente es una demostración de lo fácil que podría desencadenarse ese tipo de plaga de desinformación a medida que estas tecnologías estén más disponibles. Pero también te animo a que revises los cientos de respuestas tú mismo y te tranquilices. Son coherentes, pero todavía no estamos en modo apocalíptico. Y la variedad de temas nos da una buena visión de lo que puede hacer esta implementación particular de GPT-3.

“Mi objetivo personal con la creación de Philosopher AI (y otras aplicaciones inéditas en las que estoy trabajando) es obtener la intuición y la experiencia adecuadas en torno a los desafíos relacionados con la implementación de sistemas de inteligencia artificial en producción, para poder aplicar estos aprendizajes a aplicaciones más serias en el futuro. ”, Dijo Ayfer . “Está claro que necesitamos construir excelentes marcos de prueba y sistemas de prevención de abuso en todos los productos de IA”.

Los conjuntos de datos extraídos de los comentarios de Reddit se usan comúnmente para entrenar una amplia gama de aplicaciones de aprendizaje automático, lo que lo convierte en un campo de juego sólido para probar la credibilidad de las respuestas. GPT-3 va más allá , utilizando petabytes de datos recopilados durante ocho años de rastreo web, pilas de libros y la Wikipedia en inglés.

Si bien los comentarios épicos del caballero se cortaron hace un par de días, ha publicado dos respuestas en las últimas horas. Parece que el usuario detrás del bot podría estar haciendo las cosas a la antigua ahora, ya que solo recibimos una respuesta de una sola oración. Esta tarde, un usuario señaló que el bot probablemente “no sería tan bueno en un foro utilizado por adultos”. En respuesta, el caballero simplemente dijo: “Probablemente tenga razón”.

Fuente: https://gizmodo.com/gpt-3-bot-spends-a-week-replying-on-reddit-starts-talk-1845305253

Deja un comentario