Wikipedia intenta mejorar y ser más “amigable” mediante Inteligencia artificial

Wikipedia se ha convertido en una de las principales fuentes de aprendizaje a todos los niveles y en los más variados puntos del planeta, pero hay errores y hasta ahora no se podía saber cuando eran intencionados o fruto de un descuido.

El problema

La fundación Wikimedia, una organización sin fines de lucro que apoya a Wikipedia, ha aportado un tipo de software que s capaz de diferenciar entre un error que podría calificarse de “honesto” y uno que no lo es y que podría ser el resultado de un acto de vandalismo.

La idea es lograr que los daros contenidos en esta web que es base de consulta diaria de los más diferentes temas y en todas partes del globo, sean lo más exactos y certeros posibles, teniendo en cuanta que los editores de las páginas y de la información son seres humanos falibles.

- Advertisement -

Uno de los problemas más importantes que ha tenido la famosa web es la disminución drástica y significativa del numero de editores, es decir de personas que contribuyen de forma activa a aumentar los contenidos de la página, que en lo que respecta al idioma inglés, se ha reducido en un cuarenta por ciento en el correr de los últimos siete años y en la actualidad no llegan a los 30000.

Según las investigaciones que se han llevado a cabo, el problema radicaría en que Wikipedia tiene una burocracia muy compleja y que muchas veces da respuestas duras al hacer las correcciones de los noveles “Wikipedistas”, la cuales a menudo resultan visibles en la web, ya que son habilitadas por las herramientas de la misma página que al ser semiautomáticas no constituyen un filtro muy efectivo.

La solución

 La Fund. Wikimedia puso a uno de sus investigadores, llamado Aaron Halfaker a que intentara mediante el uso adecuado de los algoritmos basados en la “falibilidad humana”, encontrar el fallo del sistema y corregirlo.

Para ello ha diseñado un software llamado ORES (Objective Revision Evaluation Service o sea Servicio de Revisiones y de Evaluaciones Objetivas) que analiza los contenidos y decide si éstos fueron o no creados “de buena fe”.

Halfaker que es uno de los investigadores “senior” de la fundación, cree que su sistema ORES será capaz de ayudar a que los editores que trabajen para agregar contenidos a Wikipedia, sean capaces de acceder a las versiones más recientes y se les permita borrarlas con tan solo un clic.

El problema que arrastra la web y que se debe a que su auge fue tan enorme como inesperado es que muchas de las herramientas con las que contaban que estaban diseñadas para poder controlar de forma adecuada la calidad de los contenidos, podían transformarse en un verdadero incordio, especialmente para los nuevos editores que se encontraban con que sus aportaciones se eliminaban por que al desconocer las numerosas reglas “burocráticas, con solo cometer una pequeña transgresión, perdían todo su trabajo, lo que llevaba al descontento y la frustración.

El cometido de ORES es permitir que los usuarios sean dirigidos por las herramientas de edición a revisar determinado tipo de errores que podrían considerarse más “dañinos” que otros. Otra de las numerosas funciones del nuevo software es ayudar a que los editores eviten lo que pose suele calificar de “errores de principiantes” algo muy común en todos los ámbitos de trabajo.

El problema estriba según cree Halfaker en que los encargados de realizar los controles no mantienen un adecuado contacto de calidad “humana” con el resto de los colaboradores, por lo que acaban siendo unos jueces muy duros y toman decisiones más rápidas de las que debieran, por lo que esta nueva herramienta les induciría a enviar un mensaje a quien creó un contenido y advertirle que tenia equivocaciones antes de eliminarlas sin más.

Sí o no

En la actualidad se está probando el sistema ORES con algunas de las versiones de la Wikipedia, para ello se han seleccionado cuatro de los innumerables idiomas en los que se ofrece dicha web y estos son el inglés, el turco, el farsi y el portugués.

 Con este nuevo sistema será posible juzgar cual es la calidad de las nuevas ediciones y podrán distinguirse los errores “inocentes” de los malintencionados. Toda esta información se basa en cotejarlos con datos de correcciones de ediciones anteriores que fueron recopiladas con anticipación y ya hay varios wikipedianos que están experimentando con ORES.

En 2013 se intentó implementar una herramienta que buscaba que los nuevos editores se sintieran “mejor acogidos” en el seno de la web, pero la interfaz propuesta fue rechazada por los usuarios que obligaros a que en vez de ser obligatoria y por defecto, fuera opcional y se sigue usando el editor que se basa en el complejo lenguaje denominado Wikitext.

La idea de Halfaker es que su nuevo asistente de edición algorítmico si bien resulta algo más sofisticado que  el anterior, al no ser obligatorio, contará con la aceptación de la comunidad Wiki; el asegura que «De alguna manera resultara algo como poco “raro” introducir AI y una máquina de aprendizaje en una web tan socialmente masiva, pero no será algo intrusivo, así que esperamos grandes resultados”.

ARTÍCULOS RELACIONADOS
- publicidad -

Otras noticias de interés