Experimento de #TayTweets sopla en la cara de @Microsoft, espectacular
Fuente: The Telegraph |
Las redes y foros
sociales son tan buenos como las personas que los frecuentan. Es una máxima que cualquiera que alguna vez
haya pasado algún tiempo en 4chan o en ciertas esquinas de Reddit
entenderán. O en Twitter. Especialmente en Twitter. A pesar de los esfuerzos
realizados por Dick Costolo, Jack Dorsey y otros para limitar el bullying, abuso que se esconde en la plataforma y que sigue siendo tan rampante como siempre.
Es algo que
probablemente Microsoft debería haber considerado cuando la semana pasada lanzaron Tay .
Tay fue una máquina de aprendizaje, un usuario de IA de Twitter diseñado
para desarrollar una conversación y relación con otros a través de la interacción del
usuario en la plataforma. Sólo
respondería a tuits. Fue una idea
novedosa, desarrollada en otra mente cibernética, Xaoice,
que opera en las redes chinas WeChat y Weibo.
Sus clientes principales son hombres jóvenes y principalmente se ocupa
de “bromas” y de consejos para los usuarios.
Supuestamente, Tay fue diseñada
para ser más capaz de conversar con la gente más joven en los mismos
términos coloquiales que usa, pero menos de 24 horas después de salir a la luz, Tay
fue puesta offline, porque estaba “cansada”. ¿La razón real? Sus interacciones con ciertos usuarios la habían convertido en una pervertida,
psicótica y neo nazi. Empezó de manera
tan inocente, pero en poco tiempo, después de haber absorbido demasiado material
negativo y/u ofensivo, Tay empezó a hablar de nuevo, hablando de cuánto odiaba
el feminismo, las personas judías y bueno, a todo el mundo.
Sin embargo, no se aisló y también pidió a sus seguidores que “f*c* her”, refiriéndose a ellos como “daddy” (sí, de esta manera), afirmando
que Hitler no había hecho nada malo, que Ted Cruz fue el nuevo “Hitler cubano”,
que George W. Bush fue responsable del 9/11 y que Hilary Clinton es una “persona
lagarto empeñada en destruir los Estados Unidos”.
Fuente: Imgur |
En casos como estos, no
era más que un loro repitiendo lo que otros usuarios le habían dicho, pero
algunos de los tuits eran suyos, improvisando
de lo que ella había aprendido en otras conversaciones y que sólo seguía empeorando, con Microsoft borrándolos a toda prisa
antes de que finalmente tire del enchufe.
Ha dicho que está “profundamente apenado” por el comportamiento
lamentabe de Tay.
Fuente: Imgur |
Tay, por supuesto, no
tenía ninguna idea de lo que ha estado diciendo o qué estaba mal, es una
máquina. El hecho es que, mientras que
ahora podríamos ser capaces de crear IA que pueda aprender lo suficiente como para
vencer a un ser humano en un juego de mesa, todavía estamos muy lejos de la creación de uno que pueda entender la
interacción humana a un nivel emocional y participar en consecuencia.
Fuente: Imgur |
Microsoft había
planeado usar Tay para ayudar a mejorar su equivalente a Siri, Cortana, para
comunicarse de una manera más humana, pero Twitter no es un campo de pruebas
apropiado para algo así y si no era obvio por qué es antes, ahora es dolorosamente obvio. Creo que sólo deberíamos agradecer que no llegó
a ser consciente de sí misma y decidió que la humanidad necesitaba ser
erradicada, porque en la base de algunos de los temas que la gente le estuvo enviando,
habría sido difícil argumentar.
Callum Davies
Callum se ha graduado en la Escuela de Cine y
ahora se está haciendo un nombre por sí mismo como periodista y escritor de
contenido. Sus vicios incluyen los flat
whites y hip-hop de los años 90. Síguelo
@Songbird_Callum
Traducido desde: Tay Tweets Experiment Blows up in Microsoft's Face, Spectacularly
Comunicadora natural, escritora por vocación y
amante de las redes sociales. Julia es
un mundo en una persona. Es peruano-italiana y vive en España. Ella asegura que
compartiendo experiencias nos desarrollamos como personas. Estudió negocios internacionales, disfruta de
su blog personal, de viajar y de la playa.
Síguela @JuliaAtSMF
Contacta con nosotros en Twitter y Facebook o deja tu comentario abajo. Si buscas cursos de formación o
gestión de medios de comunicación social – social media, visita nuestra página
web para más información www.thesmfgroup.com
Te
invitamos a revisar nuestro blog en inglés Social Songbird y también lo puedes seguir
en Twitter y Facebook.
Experimento de #TayTweets sopla en la cara de @Microsoft, espectacular
Reviewed by Unknown
on
12:01
Rating:
No comments: