¿Cómo se puede detectar el contenido de la IA de forma manual y con software?

por Solon Teal

Una imagen generada por IA del papa Francisco con una chaqueta acolchada se volvió viral. Una impresionante foto de un surfista ganó un concurso de fotografía, solo para revelarse como una imagen generada por IA. Estos, y muchos otros ejemplos, fueron precedidos por una pintura digital generada por IA que ganó un concurso de artes digitales en la Feria Estatal de Colorado. Todos se crearon con las primeras versiones del generador de imágenes de IA Midjourney, que desde entonces ha mejorado. Se pueden encontrar ejemplos similares en contenido de imagen, texto, video y audio creado por IA generativa.


¿Qué se puede hacer? Si los críticos de arte y los usuarios de Internet no pueden distinguir entre el contenido generado por máquinas y el contenido generado por humanos, ¿hay esperanza de encontrar la verdad en línea? Además, ¿cuánto importa si algo es generado por IA o creado por manos humanas? Si bien estas preguntas se desvían hacia el territorio filosófico, que hemos cubierto antes, la esperanza no se pierde. Hay acciones específicas que las personas pueden tomar desde una perspectiva de pensamiento crítico. El desarrollo y la experimentación de la industria en el análisis y la marca de agua del contenido de IA se están acelerando. El mercado está evolucionando rápidamente.

Aquí está lo último sobre la detección de contenido generado por IA.

Prestar atención es la mejor manera de identificar manualmente el contenido generado por IA

La forma más sencilla de identificar el contenido generado por la IA es prestar mucha atención. Un vistazo superficial a una imagen o texto puede pasar por alto pistas sutiles que un examen más cuidadoso podría revelar, como se describe a continuación. Para ayudar con este pensamiento crítico, use el método “SIFT”. Desarrollado por Mike Caulfield, científico investigador de la Universidad de Washington, “SIFT” significa:

  • Detener: considere la fuente de la imagen y si importa si es generada por una máquina o alterada
  • Investigue la fuente: comprenda los incentivos y la experiencia de la fuente
  • Encuentre una mejor cobertura: si corresponde, vea si el contenido está verificado en otros sitios
  • Rastreo: identificar el contexto original y la fuente de la información.

La consideración de “si importa” suele ser contextual y puede ayudar a reducir la ansiedad y las madrigueras de investigación sobre la verdad de todo, de lo contrario, es fácil no confiar en nada.

Acciones manuales tácticas

Si bien cada vez es más difícil identificar definitivamente el contenido generado por máquinas manualmente, especialmente cuando lo produce un operador de IA experto, hay varias señales y categorías clave a considerar tanto para las imágenes como para el texto.

Detección manual de imágenes con IA: observe las partes “irrelevantes” de la imagen

Después de una revisión de una variedad de fuentes y foros, la detección manual de imágenes generadas por IA generalmente se divide en tres categorías clave. Estas categorías se pueden resumir mejor como mirar el fondo y las minucias de una imagen que a menudo no son el punto focal:

  • Errores visuales: contar los dedos de las manos y de los pies, mirar mechones de cabello, orejas y ojos
  • Situaciones antinaturales: busque objetos borrosos y deformados de forma antinatural, especialmente los que están en el fondo
  • Estilo general: Las imágenes de IA suelen tener un ambiente o un estilo. Juega con herramientas de IA para desarrollar esta habilidad

Es importante destacar que muchos de estos problemas no surgen en todas las fotos de IA, y si el objetivo de la imagen de IA es engañar, es probable que el creador evite estos problemas comunes.

Detección manual de texto con IA: utilice pistas contextuales y combinaciones de palabras y frases

Los bots automatizados que generan texto preceden a las herramientas modernas de IA: considere la teoría de la Internet muerta como una idea provocativa. Sin embargo, el texto moderno generado por máquina es mucho más maleable y sensible dada la naturaleza de respuesta rápida y los grandes conjuntos de datos subyacentes. Además, las personas normales pueden sonar robóticas en ciertos contextos, como el correo electrónico profesional, por lo que las diversas capacidades de tono de un modelo de lenguaje grande (LLM), como ChatGPT, dificultan la identificación coherente de sus creaciones.

Hay ciertas palabras que se asocian cada vez más con las herramientas de IA. Por ejemplo, ChatGPT suele utilizar las palabras tapiz y profundizar. El uso de delve, a su vez, ha aumentado sustancialmente en las revistas médicas. Por un lado, esto podría significar que los usuarios están utilizando directamente los resultados generados por la IA, mientras que, por otro lado, los usuarios de palabras comunes de la IA podrían estar simplemente reflejando las palabras que han leído en el contenido generado por la IA. Las herramientas y la cultura se influyen mutuamente, por lo que, a menos que las palabras sean universalmente conocidas como solo utilizadas por la IA, juzgar manualmente es propenso a sesgos y falsos positivos.

La detección de software es, en el mejor de los casos, inconsistente

Si bien muchos sitios web y herramientas de análisis de software afirman detectar la IA, no existen soluciones claras y definitivas. Las empresas están económicamente desincentivadas para hacer que sus resultados sean más detectables como generados por IA de lo que es legalmente necesario, especialmente si afecta a la calidad. Los modelos y el uso creativo de las herramientas hacen que sea un juego constante identificar el contenido generado por la IA, pero es probable que haya cambios. Este es el estado de la detección de software:

Las herramientas de análisis de generación de texto son propensas a los falsos positivos

Aquellos que investigan la generación de texto pueden usar una herramienta como GPTZero. GPTZero utiliza una variedad de métodos patentados para identificar texto de IA y ha sido el foco de numerosos estudios que evalúan el éxito. A menudo es preciso, pero aún tiene falsos positivos o texto generado por humanos identificado como texto generado por IA. En particular, OpenAI retiró su propio “clasificador de detección de texto con IA” después de unos meses el año pasado, dada una “baja tasa de precisión“. La incidencia de falsos positivos para herramientas como GPTZero puede hacer que su uso sea similar al de los detectores de mentiras, a veces completamente preciso y a veces completamente incorrecto.

Independientemente del enfoque contextual de una herramienta de análisis de texto, un análisis de software textual debe ser un componente dentro de una investigación más amplia.

Las herramientas de análisis se están lanzando rápidamente, incluso por parte de las propias empresas

Mientras que OpenAI retiró una herramienta de detección, OpenAI y otras empresas han lanzado alternativas. OpenAI anunció recientemente un nuevo conjunto de herramientas para que los investigadores identifiquen si la tecnología OpenAI produjo una pieza particular de contenido. Hugging Face tiene una colección de herramientas para detectar una variedad de formatos de contenido, y Meta etiqueta las imágenes creadas en su plataforma como “Imaginadas con IA”. Es probable que algunos de estos desarrollos sean el resultado de la orden ejecutiva del presidente Joe Biden sobre la IA, que exige la capacidad de las empresas de IA para “… garantizar que los usuarios sepan cuándo el contenido es generado por IA, como un sistema de marca de agua”.

SynthID, el sistema de marca de agua de Google DeepMind, comenzó el software beta el año pasado con imágenes producidas por Gemini y se ha expandido para incluir texto y video. Utilizando una sutil alteración en el proceso de predicción del siguiente token universal para todos los modelos de lenguaje grandes, Google afirma que su proceso mantiene la calidad de la salida generada al tiempo que facilita el análisis. Se recomienda encarecidamente revisar la publicación de blog anterior de Google para comprender cómo funciona la marca de agua.

Una marca de agua puede ser eliminada por software de alteración o reescribiendo el pasaje generado por la máquina. Sin embargo, algunas investigaciones preliminares sugieren que los editores humanos aún pueden fallar en eliminar las marcas de agua, especialmente para el texto de menos de 1,000 palabras. Sin embargo, la edición y transformación exhaustivas de cualquier imagen o contenido alternativo también puede eliminar una marca de agua, por lo que ningún enfoque está completo.

Tampoco está claro cómo funcionará la marca de agua con los modelos de código abierto, y la orden ejecutiva del presidente Biden solo se aplica a las empresas con sede en los EE. UU. La marca de agua aún requiere un nivel adicional de análisis, a menudo con herramientas que actualmente están en versión beta y/o solo disponibles para ciertos investigadores.

La alfabetización digital es cada vez más importante, especialmente para los contenidos divisivos

Distinguir lo auténtico de lo fantástico y lo real de lo generado es un reto cada vez mayor en línea. Las habilidades de alfabetización digital, la participación activa y la consideración de la verdad del contenido siempre han sido útiles, pero la accesibilidad del contenido generado por máquinas hace que sea más importante que nunca pensar críticamente sobre lo que consumimos en línea.

Es probable que los temas de conversación más importantes y de mayor riesgo sean aquellos con el mayor contenido generado artificialmente. Desafortunadamente, el 49% del mundo vota en 2024, y aunque GoogleAnthropic y OpenAI se han comprometido a reducir la desinformación electoral, es probable que muchos ciudadanos del mundo se vean influenciados, sin que lo sepan, por el contenido generado por IA. Alternativamente, afirmar que algo fáctico es generado por IA puede volverse más común. Prestar atención y no sacar conclusiones precipitadas serán hábitos esenciales en el futuro previsible.

Sobre el autor

Solón Cerceta

Solon Teal es un ejecutivo de operaciones de producto con una carrera dinámica que abarca el capitalismo de riesgo, la innovación de startups y el diseño. Es un operador experimentado, emprendedor en serie, consultor en bienestar digital para adolescentes e investigador de IA, que se centra en la metacognición de herramientas y la teoría práctica. Teal comenzó su carrera en Google, trabajando de forma transversal y vertical y vertical, y ha trabajado con empresas desde su creación hasta su etapa de crecimiento. Tiene una maestría en Administración de Empresas y una maestría en Innovación y Estrategia de Diseño de la Escuela de Administración Kellogg de la Universidad Northwestern y una licenciatura en Historia y Gobierno de Claremont McKenna College.

Fuente: https://www.vktr.com/ai-upskilling/how-to-detect-ai-generated-content/

Deja una respuesta