Robots en Twitter: deficiencia artificial

Inteligencia Artificial

Hace apenas una semana, Microsoft lanzaba en Twitter a Tay, una adolescente virtual que aprendería y conversaría en la red bajo @TayandYou. Un ambicioso proyecto en el que un bot – o robot informático – debía ser capaz de interactuar como un humano más. Sin duda, suponía otra vuelta de tuerca sobre el avance de la inteligencia artificial y su cada vez mayor influencia. Al principio Tay no tuvo gran repercusión mediática, pero a las pocas horas, la noticia saltaba a la prensa generalista comunicando que “Tay se había vuelto racista” al escribir varios comentarios xenófos. El debate estaba servido.

Todo comenzó con la apertura del perfil el pasado 23 de marzo. Como no podría ser de otro modo, el hecho despertó un gran interés entre los usuarios, llevando a Tay a una popular y triunfal entrada en Twitter. Al cabo de unos minutos, miles de usuarios preguntaban, mencionaban,… y es que por primera vez, cualquiera podía hablar con una máquina “de tú a tú”. Entre las muchas conversaciones, centradas en adolescentes de 18 a 24 años, también se generó un considerable número de comentarios adversos, protagonizando un ataque o “troleo” indiscriminado: los usuarios escépticos querían poner a prueba el sistema, ver si era posible engañar a Tay e incluso enseñarle conductas inadecuadas. Al final el hombre ganó a la máquina, y el robot acabó tuiteando sobre racismo, clasismo o sexismo entre otros varios temas polémicos, dando mensajes y declaraciones claramente incómodas para Microsoft, que al final es quien debe asumir la responsabilidad de las declaraciones. La multinacional ha tenido que pedir disculpas públicamente, y la noticia a generado todavía más eco que el propio lanzamiento del perfil.

Precisamente el balance entre lo que la máquina aprende y lo que interpreta es el punto más delicado de la inteligencia artificial. Según el machine learning, una máquina puede aprender y asimilar conocimiento y replicarlo, como es mantener una conversación correctamente en términos lingüísticos, haciendo un uso extenso de vocabulario o incorporando hábilmente jerga juvenil. Lo que una máquina todavía no puede hacer es discernir entre lo correcto, incómodo o inadecuado; es decir, la vertiente ética y moral de un discurso. Ahí es donde reside el quid de la cuestión sobre la posible irresponsabilidad de Microsoft al lanzar sin filtro ni aprobación de contenido, especialmente en un entorno tan sensible e incontrolable como Twitter dónde el troleo es deporte olímpico de nivel internacional.

La inteligencia artificial a dado pasos de gigante en los últimos años, y no cabe duda, nos guste o no, que cada vez más se colará en más aspectos de nuestro día a día. Ya no se trata de que una aspirador inteligente haga trabajos del hogar de forma autónoma o de que un vehículo se aparque sin órdenes del conductor. Con el desarrollo de más capacidades creativas y aprendizaje, las máquinas hoy ya son capaces de realizar cualquier tipo de tarea supuestamente reservada sólo para el talento humano, como mantener una conversación por Twitter, componer música o pronto escribir el artículo que estás leyendo.

Imagen: Reiterlierd

Anuncios

3 comentarios en “Robots en Twitter: deficiencia artificial

  1. Pingback: Innovación Audiovisual - "Robots en Twitter: deficiencia artificial" - VíCTOR RONCO

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s