La mayoría de las personas mayores de 30 probablemente recuerden haber investigado con buenas enciclopedias antiguas. Sacaría un volumen pesado del estante, revisaría el índice de su tema de interés, luego pasaría a la página apropiada y comenzaría a leer. No fue tan fácil como escribir algunas palabras en la barra de búsqueda de Google, pero en el lado positivo, sabías que la información que encontrabas en las páginas de Britannica o World Book era precisa y verdadera.
No es así con la investigación en Internet hoy en día. La abrumadora multitud de fuentes fue lo suficientemente confusa, pero agregue la proliferación de información errónea y es sorprendente que cualquiera de nosotros crea una palabra de lo que lee en línea.
Wikipedia es un ejemplo de ello. A principios de 2020, la versión en inglés del sitio tenía un promedio de 255 millones de páginas vistas por día, lo que lo convierte en el octavo sitio web más visitado de Internet. A partir del mes pasado, había subido al puesto número siete , y la versión en inglés tiene actualmente más de 6,5 millones de artículos.
Pero a pesar del alto tráfico que puede tener esta fuente de información, su precisión deja mucho que desear; la página sobre la propia confiabilidad del sitio dice: “La enciclopedia en línea no se considera confiable como fuente y desalienta a los lectores a usarla en entornos académicos o de investigación”.
Meta, del antiguo Facebook, quiere cambiar esto. En una publicación de blog publicada el mes pasado, los empleados de la compañía describen cómo la IA podría ayudar a que Wikipedia sea más precisa.
Aunque decenas de miles de personas participan en la edición del sitio, los datos que agregan no son necesariamente correctos; incluso cuando las citas están presentes, no siempre son precisas ni siquiera relevantes.
Meta está desarrollando un modelo de aprendizaje automático que escanea estas citas y hace referencias cruzadas de su contenido con los artículos de Wikipedia para verificar que no solo los temas coincidan, sino que las cifras específicas citadas sean precisas.
No se trata solo de elegir números y asegurarse de que coincidan; La IA de Meta necesitará “comprender” el contenido de las fuentes citadas (aunque “entender” es un nombre inapropiado, como diría la investigadora de la teoría de la complejidad Melanie Mitchell , porque la IA aún se encuentra en la fase “estrecha”, lo que significa que es una herramienta para usuarios altamente sofisticados). reconocimiento de patrones, mientras que “comprensión” es una palabra que se usa para la cognición humana, que sigue siendo algo muy diferente).
El modelo de Meta “comprenderá” el contenido no comparando cadenas de texto y asegurándose de que contengan las mismas palabras, sino comparando representaciones matemáticas de bloques de texto, a las que llega utilizando técnicas de comprensión del lenguaje natural (NLU).
“Lo que hemos hecho es crear un índice de todas estas páginas web dividiéndolas en pasajes y brindando una representación precisa de cada pasaje”, dijo a Digital Trends Fabio Petroni, gerente principal de tecnología de Investigación Fundamental de IA de Meta . “Eso no es representar palabra por palabra el pasaje, sino el significado del pasaje. Eso significa que dos fragmentos de texto con significados similares se representarán en una posición muy cercana en el espacio n-dimensional resultante donde se almacenan todos estos pasajes”.
La IA está siendo entrenada en un conjunto de cuatro millones de citas de Wikipedia, y además de seleccionar citas defectuosas en el sitio, a sus creadores les gustaría que eventualmente pudiera sugerir fuentes precisas para tomar su lugar, extrayéndolas de un índice masivo de datos que es actualizándose continuamente.
Un gran problema que queda por resolver es trabajar en un sistema de calificación para la confiabilidad de las fuentes. Un artículo de una revista científica, por ejemplo, recibiría una calificación más alta que una publicación de blog. La cantidad de contenido en línea es tan amplia y variada que puede encontrar “fuentes” para respaldar casi cualquier afirmación, pero analizando la información errónea de la desinformación (la primera significa incorrecta, mientras que la segunda significa engaño deliberadamente) y la revisión por pares. de lo que no fue revisado por pares, lo verificado de lo que se juntó apresuradamente, no es una tarea pequeña, pero es muy importante cuando se trata de confianza.
Meta ha abierto su modelo, y aquellos que tengan curiosidad pueden ver una demostración de la herramienta de verificación. La publicación de blog de Meta señaló que la compañía no se está asociando con Wikimedia en este proyecto, y que todavía está en la fase de investigación y actualmente no se usa para actualizar contenido en Wikipedia.
Si imagina un futuro no muy lejano en el que todo lo que lea en Wikipedia sea preciso y confiable, ¿no sería eso hacer cualquier tipo de investigación demasiado fácil? Hay algo valioso en verificar y comparar varias fuentes nosotros mismos, ¿no es así? Fue un gran salto pasar de hojear libros pesados a escribir algunas palabras en un motor de búsqueda y presionar “Enter”; ¿realmente queremos que Wikipedia pase de ser un punto de partida de la investigación a una fuente de la última palabra?
En cualquier caso, el equipo de investigación de IA de Meta seguirá trabajando en una herramienta para mejorar la enciclopedia en línea. “Creo que al final del día nos motivó la curiosidad”, dijo Petroni . “Queríamos ver cuál era el límite de esta tecnología. No estábamos absolutamente seguros de si [esta IA] podría hacer algo significativo en este contexto. Nadie había intentado hacer algo similar”.
Crédito de la imagen: Gerd Altmann de Pixabay