Más cerca de Inteligencia Artificial que ve el mundo como los humanos

Este trabajo es un paso importante hacia la creación de sistemas de inteligencia artificial que vean y comprendan el mundo como lo hacen los humanos.

Un equipo de la Universidad de Northwestern ha desarrollado un nuevo modelo computacional que se desenvuelve a niveles humanos en una prueba de inteligencia estándar.

   Este trabajo es un paso importante hacia la creación de sistemas de inteligencia artificial que vean y comprendan el mundo como lo hacen los humanos.

   «El modelo se desenvuelve en el percentil 75 para los adultos estadounidenses, haciéndolo mejor que el promedio», dijo Ken Forbus de Northwestern Engineering. «Los problemas que son difíciles para las personas también son difíciles para el modelo, proporcionando pruebas adicionales de que su operación está captando algunas propiedades importantes de la cognición humana«.

   El nuevo modelo computacional se basa en CogSketch, una plataforma de inteligencia artificial previamente desarrollada en el laboratorio de Forbus. La plataforma tiene la capacidad de resolver problemas visuales y entender los bocetos con el fin de dar retroalimentación inmediata e interactiva. CogSketch también incorpora un modelo computacional de analogía, basado en la teoría de mapeo estructural de Dedre Gentner, del Northwestern psychology.

   Forbus, Profesor de Ingeniería Eléctrica y Ciencias de la Computación en la Escuela de Ingeniería McCormick de Northwestern, desarrolló el modelo con Andrew Lovett, un ex investigador postdoctoral de Northwestern en psicología. Su investigación ha sido publicada en la revista Psychological Review.

   La capacidad de resolver problemas visuales complejos es una de las características de la inteligencia humana. El desarrollo de sistemas de inteligencia artificial que tienen esta capacidad no sólo proporciona nuevas pruebas de la importancia de las representaciones simbólicas y la analogía en el razonamiento visual, sino que podría reducir potencialmente la brecha entre el ordenador y la cognición humana.

   Aunque el sistema de Forbus y Lovett puede usarse para modelar fenómenos visuales generales de resolución de problemas, lo probaron específicamente en las Matrices Progresivas de Raven, una prueba no verbal normalizada que mide el razonamiento abstracto. Todos los problemas de la prueba consisten en una matriz con una imagen que falta. El examinador tiene seis a ocho opciones con las cuales puede completar mejor la matriz. El modelo computacional de Forbus y Lovett fue mejor que el estadounidense promedio.

   «La prueba de Raven es el mejor predictor existente de lo que los psicólogos llaman ‘inteligencia fluida’, o la habilidad general de pensar abstractamente, razonar, identificar patrones, resolver problemas y discernir relaciones«, dijo Lovett, ahora investigador en el US Naval Research Laboratory. «Nuestros resultados sugieren que la capacidad de utilizar con flexibilidad las representaciones relacionales, comparándolas y reinterpretándolas, es importante para la inteligencia fluida».

   La capacidad de utilizar y comprender las representaciones relacionales sofisticadas es una clave para la cognición de orden superior. Las representaciones relacionales conectan entidades e ideas tales como «el reloj está por encima de la puerta» o «las diferencias de presión hacen que el agua fluya». Estos tipos de comparaciones son cruciales para hacer y entender analogías, que los seres humanos usan para resolver problemas, para sopesar dilemas morales y para describir el mundo que los rodea.

   «La mayoría de las investigaciones de inteligencia artificial hoy relacionadas con la visión se centran en el reconocimiento, o etiquetar lo que está en una escena en lugar de razonar sobre ello«, dijo Forbus. «Pero el reconocimiento sólo es útil si apoya el razonamiento subsiguiente. Nuestra investigación proporciona un paso importante hacia la comprensión del razonamiento visual de manera más amplia».

ep

ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Otras noticias de interés