Separan a 2 robots que desarrollaron su «propio lenguaje» (video)

Alice y Bob, dos robots con inteligencia artificial, se comunicaban de una forma que nadie entendía

Separan a 2 robots que desarrollaron su "propio lenguaje" (video) 8

La inteligencia artificial está ocupando cada vez más industrias. Desde los algoritmos que regulan lo que vemos y lo que vemos en las redes sociales, los asistentes personales en los smartphones, en la conducción autónoma e incluso su presencia en fábricas y hospitales.

El futuro de nuestra relación con las diversas IA significará que aprenderán por sí mismas, se volverán más eficientes y apenas se diferenciarán de nosotros.

Eso es exactamente lo que pretendía Facebook cuando creó dos sistemas de IA, Alice y Bob… aunque luego los separó. Por comunicarse de una manera que nadie entendió, pero ¿qué pasó realmente?

Según la noticia que circulaba en ese momento, Facebook separó a dos de sus robots de inteligencia artificial, Alice y Bob, luego de que comenzaran a hablar entre ellos en un idioma que inventaron.

Si bien algunos elementos de esta historia futurista son ciertos, no todo es verdad.

Alice y Bob eran dos chatbots, básicamente programas informáticos que imitaban conversaciones humanas a través de texto.

Debido a que estos programas aún no son capaces de funciones muy sofisticadas más allá de, por ejemplo, responder las preguntas de los clientes o pedir comida, el Grupo de Investigación de Inteligencia Artificial de Facebook (FAIR) se dispuso a ver si se les podía enseñar cómo usarlos.

Usando un juego en el que los dos chatbots y los jugadores humanos intercambiaron objetos virtuales como libros, sombreros y pelotas, Alice y Bob demostraron que podían hacer negocios con diversos grados de éxito.

Para hacer esto, los científicos del grupo FAIR usaron un software de inteligencia artificial y una interfaz cerebro-computadora, pero cuando Alice y Bob comenzaron a negociar entre ellos, los expertos se dieron cuenta de que los bots no estaban programados para simplemente seguir las reglas del idioma inglés para respeto el resultado fue un diálogo aparentemente sin sentido.

En una publicación de Facebook, el miembro de FAIR, Dhruv Batra, dijo que este comportamiento no era alarmante, sino «una rama bien establecida de la IA, con publicaciones que se remontan a décadas».

En pocas palabras, los agentes en entornos que intentan completar una tarea a menudo encuentran formas de maximizar una recompensa de manera poco intuitiva.

Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que deshabilitar o apagar la IA. Si ese fuera el caso, todos los investigadores de IA cerraron la IA cada vez que hubo un error.

En resumen, Facebook detuvo a ambos bots para refinar las reglas de lenguaje que usaban, pero no hubo peligro y no inventaron el lenguaje.

Salir de la versión móvil