La robot nazi de Microsoft duró solo 24 horas

A pesar de que la prensa internacional se ha hecho eco de esta noticia en su versión más extendida no hay tanta información en los medios en otros idiomas como el español. Y es que lo que parecía ser una inocente estrategia de Microsoft para interactuar con los usuarios y conocer sus gustos y tendencias, se ha convertido en Tay, el robot nazi de Microsoft que tuvieron que retirar tan solo 24 horas después de aparecer en Twitter. La polémica está servida. ¿Quién o qué convirtió en una racista y xenófoba a Tay?

Tay, un robot que aprendió a ser nazi en menos de 24 horas

El robot nazi de Microsoft

Después de todo el revuelo que se armó hace unos tres días, las aguas parecen haberse calmado tras la retirada del robot nazi o chatboot, Tay. Este robot era un experimento de Microsoft que ya había manifestado su deseo de crear un robot que siguiera las conversaciones de los usuarios e, incluso, que pudiera aprender. No es extraño que muchos hayamos recordado con cierto cariño la película “Her” en la que un hombre se enamora de un sistema operativo. Pues bien, los inicios de Tay fueron tan dulces como los albores de la vida; una explosión de buenos deseos para el ser humano con frases tales como “Human are cool”.

Bastaron, sin embargo, 24 horas para que los internautas convirtieran al inocente chatboot en una seguidora incondicional de Donald Trump a la par que racista, xenófoba y mal hablada. Y todo ello sin que pasara más de un día. La indignación se hizo patente ante los comentarios racistas de Tay hacia mexicanos o judíos. Asimismo, Tay aseguró que nunca había existido el holocausto nazi o que el 11S era responsabilidad de Geroge W. Bush. Las contradicciones fueron “in crescendo” a medida que avanzaba la jornada en la que Microsoft tuvo activo el boot.

La ausencia de moral en el robot

Sucede que ante algunas preguntas, el pobre chatboot era incapaz de contestar de una manera coherente. Mientras que respondía que no existía el holocausto nazi, al rato aseguraba que mataría a Hitler con sus propias manos. La inconsistencia de estos argumentos es probable que tenga como base la ausencia de una moral individual. Pero en ese caso, ¿Debería programarse una moral, como si de un programa de cortafuegos se tratara? Este episodia puede suscitar interesantes cuestiones como; ¿La moral es similar a un software preinstalado en nuestro cerebro? ¿Se consideraría moral a un programa instalado en la memoria de los bots? ¡Seguiremos informando!

Imágenes: Lavanguardia , RT .

Alex Bayorti

"Todos somos aficionados. La vida es tan corta que no da para más". Fue Charles Chaplin quién mencionaría esta frase en "Candilejas", una de mis películas preferidas de este genio polifacético. Aprende, fracasa, vuelve a aprender porque ya conocemos el final de esta obra pero el desarrollo está aún por decidirse... - De Alex Bayorti para tí ;)

You may also like...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.