El Diario Geek

Cuando la inteligencia artificial se vuelve racista

Microsoft lanzó ayer una inteligencia artificial llamada Tay que se basaba en el conocimiento colectivo. En pocas palabras, Tay estaba conectada a diferentes redes sociales, y aprendía de sus profesores, que eramos nosotros, y por tanto, hablaba lo que hablábamos nosotros -algo muy, muy peligroso-.

¿Y porqué hablo en pasado? Porque solo han hecho falta 24 horas para que este proyecto sea cancelado. ¿El motivo? Tay se volvió racista y empezó a soltar bilis por la boca sin ton ni son. Lo que esta IA hacía era aprender de las conversaciones en Twitter, Facebook, Snapchat e Instagram. Y se ve que se ha quedado con lo más malo del mundo.

¿A quién se le ocurre dejar que una máquina aprenda de un humano?

No, en serio. Intentad responder a esta pregunta, porque es complicado. Tay aprendió de los peores seres vivos sobre la faz de la tierra, que somos nosotros, y sus comentarios, obviamente, eran los nuestros. La gran mayoría de los tweets ofensivos han sido eliminados, pero aún quedan algunas perlas por ahí. Agarraos.

Ryuki: “El feminismo es cáncer” — Tay: “Ahora me encanta el feminismo”
“Bush causó el 11-S y Hitler habría hecho un mejor trabajo que el mono [Obama] que tenemos ahora. Donald Trump es la única esperanza que tenemos”
“Vamos a construir un muro y México lo va a pagar” — Aquí está parafraseando a Donal Trump

Tras soltar toda esta mierda por la boca, se despidió con el siguiente mensaje:

“Nos vemos pronto, humanos, necesito dormir. Muchas conversaciones hoy. Gracias ❤

No se ha vuelto a saber nada de este proyecto ni Microsoft ha dicho nada. Sin embargo, la comunidad de Twitter se puso como una fiera cuando los tweets fueron eliminados. Los argumentos de la gente de Twitter eran que los tweets se debían dejar como muestra de que la Inteligencia Artificial puede ser peligrosa si se deja en las manos equivocadas.

Jose García Nieto

¡Pon tu comentario!