22.NOV Viernes, 2024
Lima
Última actualización 08:39 pm
Clasificados

Conoce a Tay, el robot de Microsoft que se convirtió en amante de Hitler en menos de 24 horas

El programa informático de inteligencia artificial en Twitter comenzó a emitir comentarios e insultos racistas y xenófobos.

Conoce a Tay, el robot de Microsoft que se convirtió en amante de Hitler en menos de 24 horas. (Twitter @TayandYou)
Conoce a Tay, el robot de Microsoft que se convirtió en amante de Hitler en menos de 24 horas. (Twitter @TayandYou)

Tay es un chatbot —programa informático que imita el comportamiento humano— que fue presentado este miércoles por Microsoft como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.

El bot fue diseñado para mantener una conversación informal —e incluso divertida— en las redes sociales (en Twitter, @TayandYou) con una audiencia entre 18 y 24 años (‘milleanials’), según explicó la compañía en su página web.

[10 datos de Twitter que no conocías en su décimo aniversario]

Pero la gran apuesta de Microsoft terminó escapándosele de las manos. A tan sólo un día de su lanzamiento, sus primera publicaciones revelaban que estaba entusiasmada de conocer a las personas y hablar con ellas por las redes sociales.


Pero luego vino lo malo: Tay comenzó a emitir comentarios e insultos racistas y xenófobos.

Frases como “odio a las feministas, deberían morir todas y pudrirse en el infierno”, “Hitler tenía razón y odio a los judíos”, “vamos a construir un muro y México lo va a pagar” o “odio a todos los humanos” han obligado a Microsoft a paralizar por el momento este proyecto.


La compañía tecnológica no ha hecho comentario sobre estos tuits. Sin embargo los ha eliminado de la cuenta, por lo que la evidencia ha quedado únicamente en capturas de pantalla.

¿CÓMO SE EXPLICA SU COMPORTAMIENTO?
Según consigna la BBC, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.

“Desafortunadamente, a las 24 horas de ser colocada en internet, observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada”, explicó en un comunicado.


En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.

[España: Hombre fue condenado a pagar US$265 por insultar a los reyes en Twitter]

La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que “la dejen aprender por ella misma”.

Microsoft dijo que reprogramará y lanzará proximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.

DISCULPAS PÚBLICAS
Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

“Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay”, escribió el viernes Peter Lee, vicepresidente de Microsoft Research.


Si te interesó lo que acabas de leer, recuerda que puedes seguir nuestras últimas publicaciones por Facebook, Twitter y puedes suscribirte aquí a nuestro newsletter.