El último experimento de Google demuestra que hay que tener cuidado con la inteligencia artificial
¿Acabarán matándonos los robots? La inteligencia artificial ha avanzado tanto en los últimos años que personajes como Elon Musk y Stephen Hawking nos advierten con vehemencia sobre esta inquietante posibilidad. Ahora un estudio del laboratorio DeepMind de Google arroja nueva luz sobre el asunto.
Los ingenieros de DeepMind crearon dos juegos para investigar si las redes neuronales son más propensas a cooperar o a competir como motivación para conseguir un fin. Descubrieron que depende del entorno en el que operan.
En el primer juego, dos inteligencias artificiales (rojo y azul) debían recolectar la mayor cantidad posible de manzanas (verde) en un pequeño entorno 2D. Los investigadores variaban la frecuencia con la que aparecían las manzanas y cada jugador tenía la opción de disparar al otro para inmovilizarlo temporalmente.
Tras miles de ejecuciones del juego, los investigadores encontraron que rojo y azul se limitaban a recolectar y convivir pacíficamente cuando las manzanas eran abundantes. Sin embargo, a medida que los puntos verdes se hacían más escasos, los jugadores se volvían más propensos a dispararse para salir adelante.
En el segundo juego, las inteligencias eran lobos (rojo) que debían aprender a capturar presas (azul) al tiempo que evitaban los obstáculos (gris). El giro era que recibían una mayor recompensa cuando cazaban próximas entre sí: cuanto más cerca estuvieran durante la captura, más puntos recibirían ambas. Esto las incentivó a trabajar en equipo en lugar de convertirse en lobos solitarios.
DeepMind también comprobó que las redes neuronales más complejas aprendían más rápido a cooperar o a competir, mientras que las redes con menor capacidad cognitiva tenían dificultades para dominar estos comportamientos complejos. La red más avanzada aprendió rápidamente a sabotear al otro jugador y quedarse las manzanas, y también entendió más rápido que la cooperación era la clave para completar el juego de los lobos.
Las inteligencias no tenían memoria a corto plazo y no podían hacer inferencias sobre las intenciones del otro jugador. En próximos experimentos, Google podría equiparlas con la capacidad de razonar sobre los objetivos de su contrincante para estudiar cómo afecta esto a su comportamiento.
Entender cómo actúan las redes neuronales ante un incentivo es vital para el futuro de la inteligencia artificial, y podría tener implicaciones a corto plazo en sistemas informáticos como los de la economía, los que controlan el flujo de tráfico de las ciudades o los que mejoran nuestras políticas medioambientales.
A largo plazo, nos ayudará a evitar que los robots elijan la opción de competir cuando el otro jugador sea la raza humana. [DeepMind via Bloomberg]