LONDRES.- Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado, publica la BBC.

Fue creada, según Microsoft, como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos en internet.

Se trataba de un programa informático diseñado para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años, según explicó la compañía en su página web.

Pero la gran apuesta de Microsoft en la inteligencia artificial acabó convirtiéndose en un fracaso total.

Y el día después de su lanzamiento, Microsoft tuvo que desactivarla.

Los mensajes racistas y xenófobos de la adolescente rebelde de Microsoft en Twitter y otras redes sociales no pasaron inadvertidos.

Su empatía hacia Hitler o su apoyo al genocidio al responder a preguntas de los usuarios de las redes sociales son algunos ejemplos, además de insultos raciales y comentarios sexistas y homófobos.

También defendió el Holocausto, los campos de concentración y la supremacía blanca, y se mostró contraria al feminismo.

Un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.

“Desafortunadamente, a las 24 horas de ser colocada en internet, observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada”, explicó en un comunicado.

Peter Lee, jefe del área de Investigación de Microsoft aseguró que la compañía “siente profundamente los tuits ofensivos y dañinos, no intencionados”.

Algunos usuarios se mostraron preocupados ante lo que Tay podría significar para las futuras tecnologías de inteligencia artificial.

De un vistazo

Objetivo

El bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción.

Cambios

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que “la dejen aprender por ella misma”. Microsoft dijo que reprogramará y relanzará su bot adolescente.