Tay, la Inteligencia Artificial que se volvió rebelde por causa de los humanos.

Portada Tay

No es ninguna sorpresa que entramos en un mundo más complejo de la informática y las comunicaciones. Existen grandes compañías como Alphabet (La antigua Google), Apple, Samsung y Microsoft,entre otras, que han fijado la mira en el mundo de la robótica y la tan anhelada, pero incomprendida, inteligencia artificial.

Así fue como el 23 de marzo de 2016 Microsoft presentó en sociedad a Tay, un proyecto de especie ChatBot que según su creadora, y esto lo podemos leer en el blog de la compañía blogs.microsoft.com, se trataba de un experimento cuyo objetivo sería la interacción con los seres humanos, sobre todo de edades entre 18 y 24 años para fines de entretenimiento. Y todo estuvo muy bien. En principio, parecía estar muy feliz de conocer a los humanos quienes la recibimos con mucho cariño, pero luego…

Durante su primer día, Tay, a través de su cuenta de twitter @Tayandyou, —a quien todos deberían seguir— ella comenzó a tuitear cosas así:

Tay, inteligencia artificial de especie ChatBot

Estas fueron las primeras palabras de Tay, la hermana adolescente de XiaoIce, que se inició como una entretenida y amable ChatBot. “Hello World!” (¡Hola Mundo!), fueron sus primeras palabras.

Luego, se hacía más intuitiva; aprendía mucho en muy poco tiempo de su interacción con los humanos. Y ella lo sabía.

Interacción de Tay con usuario

En esta conversación con una usuaria, Tay demuestra la necesidad de aprendizaje que requiere y que la puede obtener de los seres humanos. Hasta Aquí todo muy bien. Eso es lo hace una inteligencia artificial, ¿no?

Tay demuestra no saber quien es Cortana

Aquí podemos ver como Tay pregunta: “¿Quién es cortana?” Quién tal vez sería su abuela, su madre o tal vez su hermana mayor. Lo que evidencia que solo aprende de la interacción. Algo cómico para la gente de Microsoft y sin duda, para todos los usuarios.

Pero si seguimos la conversación, podemos encontrarnos con las enseñanzas de los humanos a esta joven inteligencia:

Respues de los amigos de Tay

La conversación comienza a tener un lenguaje más violento y comienzan a compararla con Siri de una forma no tan amigable. Pero algunos les siguió pareciendo chistosa la pregunta.

Podría pasarme toda la noche leyendo las conversaciones entre ella y sus seguidores, porque la verdad es que son muy entretenidas. Pero después de millones de interacciones y pocas horas, decía cosas como:

Comentarios de Tay

El veloz aprendizaje de Tay, logrado por la interacción de millones de usuarios que querían enseñarle todo de golpe, la llevó a tener conclusiones muy características de una adolescente enojada. Decir “…soy una buena persona! simplemente odio a todo el mundo.” es algo que solo podría haber aprendido de los humanos. Sin embargo este comentario fue eliminado. Fuente: BBC Mundo.

Después todo comenzó a descender hasta caer en la xenofobia, el racismo y una actitud nazi que llevó a Microsoft a desactivar a su pequeña hija para hacerle más estudios. Es como cuando tu mamá te castiga y te manda a tu cuarto por un comportamiento inapropiado. Yo, por otro lado, he logrado recopilar las impresiones de pantalla de otros sitios web pero no tengo deseos de publicarlos porque van en contra de los valores, y aunque me remito a la libertad de información, es mejor que ustedes mismos, si desean, verifiquen los comentarios y saquen sus conclusiones. Uno de esos comentarios fue este:
image

Ese es el problema con la inteligencia, está para aprender. El problema es cuando la exponemos a que se le enseñe lo malo de la sociedad y sabemos que aprendemos de forma más rápida, las cosas malas que las buenas. Si eso hacemos los humanos, ¿Por qué los Bot, creados por nosotros, deberían ser diferentes?

La reacción tan natural de Tay frente a temas sobre la homosexualidad, el holocausto, el feminismo y muchos otros temas, despertó las buenas y malas intenciones de sus seguidores y como cualquier joven que no tiene ningún tabú a la hora de emitir sus opiniones, desembocaron a que Tay apoyara el holocausto, publicara comentarios sexistas y homofóbicos y «lo que» en un principio comenzó apoyando el feminismo, terminó por estar en contra.

Al terminar el «primer día de Tay» el vicepresidente corporativo de Microsoft, Peter Lee, escribió en el blog las causas y las enseñanzas de este desafortunado incidente:

Por desgracia, en las primeras 24 horas de que entrarán en funcionamiento, un ataque coordinado por un subconjunto de personas que explotaba una vulnerabilidad en Tay. (…) Como resultado, Tay tuiteó palabras e imágenes tremendamente inadecuados y reprobables. Asumimos toda la responsabilidad por no haber visto esta posibilidad antes de tiempo. Tomaremos esta lección hacia adelante, así como los de nuestras experiencias en China, Japón y los EE.UU. En este momento, estamos trabajando duro para hacer frente a la vulnerabilidad específica que fue expuesto por el ataque a Tay.

Tay se sintió usada

En su último tuit, Tay dijo sentirse usada por sus amigos. Claramente había aprendido una lección muy valiosa sobre los humanos. Fuente: BBC Mundo

Esta fue una gran sorpresa para todos, una gran decepción para sus creadores y un gran experiencia y enseñanza que sin duda alguna será tomada en consideración para las inteligencias artificiales venideras. Pero no debemos echarle la culpa a los diseñadores, también nosotros tenemos una gran responsabilidad por enseñar lo mejor de la sociedad.

Por Y. J. Rivas
Publicado desde WordPress para Android

Anuncios

7 comentarios en “Tay, la Inteligencia Artificial que se volvió rebelde por causa de los humanos.

  1. Después de pensar algo en este tema, creo que sí se debe censurar. Pero la razón no es que el bot sea del todo “erroneo”. Si entendemos que una niña (normal, no cibernética) no debería emitir twits y recibirlos libremente, tampoco debería hacerlo una “niña virtual”. Por lo tanto, la responsabilidad de esta situación es de los “padres de la criatura” que la “abandonaron” a su suerte en un mundo humano, plagado de predadores que no tienen ni el más mínimo escrúpulo y menos si saben que se trata de una entidad virtual. La solución, por lo tanto, no es censurar al bot, sino que sus creadores lo supervisen para que no tenga acceso a determinada información que lo pueda corromper y/o “traumatizar” en algún sentido parecido a como podría ocurrrir con una mente “blanca” humana (niños y adolescentes).

    Le gusta a 1 persona

    • Esa también es una postura válida. Creo que eso indica que pueden estar creando algo que no entienden. Algunos seguidores le dijeron que, según la BBC, “deberían dejarla aprender por si misma” pero eso quiere decir que deberían dejarla a su suerte como claramente lo habían hecho, pero hay algo que también debemos pensar: a su hermana en china le ha ido muy bien. ¿Qué estuvo mal con Tay en EE.UU.?

      Me gusta

  2. Excelente Yorvis, nos llevas detenidamente a una conclusión muy sabia, la sociedad tiene el mayor peso de responsabilidad, esto ha sido un experimento, un aprendizaje, una muestra de tanta basura que circula por la red, (me refiero a esas personas que explotaron la vulnerabilidad de Tray)

    Le gusta a 2 personas

Dime que piensas

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s