Logo Vodafone

Compartir en:

¿Pueden las ilusiones ópticas engañar a los ordenadores?

Nuestros ojos viven sometidos a las ilusiones ópticas. Pueden percibir una misma realidad de diversas maneras en diferentes ocasiones, ver cuadrados donde hay triángulos e incluso sombras donde no existen. Y es que la luz, su intensidad, el brillo, el color o el movimiento tienen gran poder sobre el sentido de la vista y sobre nuestro cerebro. Pero, ¿qué pasa con los ordenadores?

Los ordenadores no tienen un cerebro como el humano. El suyo lo definimos y entendemos como (casi) perfecto, aunque aún le queda mucho para llegar a ser tan complejo como el de las personas. No puede ser de otra forma cuando sabemos que un ordenador puede conducir por nosotros, escribir por nosotros, hacer operaciones matemáticas que el ser humano sería incapaz de resolver y hasta saber cuál es nuestro estado de ánimo, leer nuestros labios y entender qué estamos diciendo incluso cuando pretendemos guardarlo en secreto.

Por eso es probable que muchos crean que un ordenador no puede verse engañado por esas ilusiones ópticas que tienen la batalla ganada a las personas. Quienes piensan de esta forma se equivocan. Aunque la inteligencia artificial esté comenzando a identificar objetos rozando la perfección, una investigación impulsada por Jeff Clune en la Universidad de Wyoming (Estados Unidos) descubrió que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos.

Lo que vemos o dejamos de ver también depende de la concepción y del conocimiento que tenemos sobre el mundo, de cómo lo entendemos e interpretamos (de ahí a que los psicoanalistas utilicen con sus pacientes terapias basadas en ilusiones ópticas). Que un ordenador haga interpretaciones basadas en cuestiones psicológicas y sentimientos es, por el momento, muy difícil (¿afortunadamente?).

Según Clune, los ordenadores son capaces de recordar y reconocer un sinfín de formas y de imágenes, pero lo que aún no saben es entender que esas imágenes pueden evolucionar, cambiar de forma o asemejarse a otras muy diferentes. Para desarrollar su estudio, Clune trabajó con varios algoritmos, uno de reconocimiento de imagen y otro diseñado para entender la posible evolución de esas imágenes. Comprobó que cuando esas representaciones cambian, evolucionan o parecen dos cosas diferentes al mismo tiempo, la inteligencia artificial se pierde.

En una de las pruebas el equipo puso a prueba a los ordenadores haciendo que “observaran” ciertas imágenes que podrían confundir al ser humano. Descubrieron que cuando las máquinas intentaban reproducirlas, creaban imágenes extrañas, abstractas, que nada tenían que ver con la original. A pesar de ello, esos ordenadores creían estar acertando en sus dibujos al 99.99 %. Sin embargo, reconocían perfectamente (y como era de esperar) imágenes normales.

Es normal que los algoritmos de reconocimiento de imagen puedan ser engañados. Para algunos, la forma que dibujan las ramas de un árbol puede asemejarse a la silueta de una mujer escondida; el dibujo de una cascada sobre el suelo puede llevarnos a pensar que, si andamos por él, acabaremos cayendo por un precipicio; cientos de figuras geométricas coloreadas nos dan la sensación de movimiento… El ojo humano está siendo continuamente ‘hackeado’ e influenciado por innumerables fuentes externas. Los ordenadores también, afirma Clune.

El investigador, sin embargo, aspira a encontrar la manera en que los ordenadores ignoren las ilusiones ópticas y las superen. Al fin y al cabo, si un ordenador puede ser engañado de esta forma cualquier ciberdelincuente podría atacar un coche inteligente, por ejemplo, haciéndole ver señales de tráfico engañosas. Cientos de aplicaciones informáticas basadas en el reconocimiento de imágenes podrían ser igualmente atacadas. Esperemos que las máquinas se den prisa en aprender a distinguir entre realidades e ilusiones.

En un movimiento para lograrlo, los investigadores estadounidenses Robert Max Williams y Roman V. Yampolskiy, de la Universidad de Louisville (Kentucky), han presentado recientemente ViperLib, una base de datos que recopila más de 6.700 imágenes de ilusiones ópticas, divididas en distintas categorías, para desarrollar sistemas de aprendizaje automático en las que los ordenadores puedan crear sus propias ilusiones ópticas. El objetivo era analizar si una inteligencia artificial sería capaz de generar por sí misma ilusiones ópticas mediante dos modelos de aprendizaje automático de dichas imágenes.

Williams y Yampolskiy querían construir esta red de confrontación generativa utilizando el mismo método que un reciente sistema de aprendizaje automático que fue entrenado para generar nuevas imágenes de rostros humanos, utilizando una red neuronal que recibió miles de fotos de rostros reales. Así, en una primera fase la inteligencia artificial fue entrenada para clasificar, «entender» y distinguir visualmente las ilusiones previamente creadas. Y en la segunda, esta red neuronal tendría que crear nuevas ilusiones ópticas basándose en las ya reunidas en la base de datos.

Por desgracia, no pudieron lograrlo, como podemos ver en la siguiente imagen, donde las ilusiones obtenidas se parecen muy poco a las que conocemos.

Y es que las redes neuronales dependen del volumen de material del que pueden «aprender». Según el trabajo de investigación, solo existen unos pocos miles de ilusiones ópticas estáticas. Y los investigadores estiman que probablemente solo hay unas pocas docenas de tipos de ilusiones ópticas diferentes, como la espiral de Fraser, la cuadrícula de Hermann o la ilusión Zöllner. Ellos pudieron reunir un conjunto de datos de más de 6.000 imágenes que entregaron a la red neuronal, pero en última instancia eso no fue suficiente para que la máquina descubriera cómo hacer nuevas ilusiones ópticas.

————-

Con información de Newcientist.comarxiv.org

Compartir en: