EnergyPress / Video
x
NQN
CRD
MDZ
Neuquén
Miércoles 6/04/2016
Temp: 27°
Viento: 17 Km/h
Despejado
WTI
USD 35.89
Oro
USD 1228.40
Cobre
USD 2.14
Dólar
$ 14.60
Euro
$ 16.65
Actualidad
Sábado 26 Marzo 11:15
Microsoft suspende el chatbot Tay
El proyecto fue diseñado para interactuar con la generación "millennials" y "aprender" de ellos.
Tweet
Califique este artículo

Microsoft  expresó sus profundas disculpas por los mensajes de Twitter racistas y sexistas

Fueron generados por un robot que lanzó esta semana, después de que el programa de inteligencia emocional se vieran envuelto en un desafortunado incidente.

Menos de un día después de su lanzamiento, el chatbot Tay comenzó a lanzar mensajes racistas, sexistas y ofensivos, por lo que Microsoft tuvo que suspenderlo; aunque anunció su reprogramación.

El 'chatbot', conocido como Tay, fue diseñado para ser más "inteligente" a medida que más usuarios interactuasen con él. Sin embargo, rápidamente aprendió a repetir una serie de comentarios antisemitas y otras ideas que incitan al odio que los usuarios de Twitter comenzaron a proporcionar al programa, forzando a Microsoft a desactivar su uso.

Tras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.

"Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay", escribió Peter Lee, vice presidente de Microsoft Research. 

Microsoft creó Tay como experimento para aprender más sobre cómo los programas de inteligencia artificial pueden interactuar con los usuarios en una conversación cualquiera. El proyecto fue diseñado para interactuar con la generación de jóvenes denominada "millennials" y "aprender" de ellos."No puedo creer que no lo vieran venir", criticó el científico Kris Hammond.

Tay emprendió su corta vida en Twitter el pasado miércoles lanzando varios tuits inofensivos. Poco tiempo después, las publicaciones dieron un giro negativo.

"Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada", dijo Microsoft en un comunicado.

Comentarios Este espacio de discusión y opinión que le brinda EnergyPress, debe ser usado para que divulgues tus inquietudes, reclamos y opiniones de manera honesta y constructiva para un buen uso de este portal. No será admiitdo ningún tipo de expresión que vaya en detrimento de raza, nacionalidad, condición social o sexo porque no es el contexto de discusión de este espacio. Los comentarios que divulguen insultos, injurias, calumnias o denuncias no documentadas tampoco serán admitidas en forma anónima y en lo posible tampoco de forma registrada. Cualquier tipo de expresión que contenga los temas anteriormente mencionados serán moderados siempre y cuando parte de ello sea constructivo a la dicusión, omitiéndose o tachándose de acuerdo a lo convenido anteriormente. Si vas a exponer tus ideas, te invitamos a que lo hagas libremente dentro de un marco responsable. Para ello, acepta estos términos y condiciones.
Acepto Términos y condiciones