Hemos escuchado mucho sobre los avances en cuestión de Inteligencia Artificial (IA) y cómo —desde hace más de setenta años— hemos intentado que las computadoras tomen consciencia y platiquen como nosotros. En el proceso les hemos enseñado novelas, poemas o incluso nuestras propias conversaciones.

¿Qué pasaría si, en lugar de bellas creaciones literarias, les enseñamos lo más oscuro que puede ofrecer el internet? Pues espérense.

No es LaMDA, es una imagen ilustrativa // Foto: Pexels

Un programador recientemente entrenó a una IA con los posts más raros de la polémica red social 4chan y en el camino desató una interesante discusión sobre la ética detrás de la investigación computacional.

4chan

Si ya conocen 4chan sabrán que es una red social que definitivamente necesita presentación. Si no tienen el gusto de conocerla, prepárense para una extraña aventura. Antes de empezar ahí les va un aviso: no entren ahí si están en la computadora del trabajo o la escuela.

Se trata de un sitio web con más de 22 millones de visitas mensuales que está enfocado en el anonimato.

Podríamos empezar diciendo que 4chan es como una sala de chat o de microblogging lleno de diferentes secciones, donde sus usuarios —todos identificados por un número al azar— discuten temas variados. Hay secciones de anime, de memes, de chistes y de mucho contenido Not Safe For Work (NSFW).

Portada de 4chan recortada por todo el nopor que había en los anuncios

Ha sido el lugar de origen de muchos memes de la prehistoria de internet como las canciones de Rick Astley o los Lolcats.

¿Por qué es polémico? Porque también ha sido el lugar de origen de muchos temas delicados. En su historia ha tenido antecedentes de pornografía infantil. También se sabe que sus usuarios han participado en tiroteos, se han filtrado asesinatos en sus pantallas —ahí se supo por primera vez la muerte de Jeffrey Epstein— o se han involucrado en movimientos violentos.

Una de sus salas de chat más conocidas, está dedicada a la discusión de la política y se llama /pol/

Si quieren un resumen, /pol/ es uno de los lugares más extremos de internet. Aprovechando el anonimato y aquella idea de “es broma, pero no es broma, aunque si preguntan sí es broma”, en esta parte de 4chan se presentan conversaciones bien densas sobre racismo, xenofobia, homofobia y mucha violencia.

Han acusado que /pol/ se ha convertido en un lugar de radicalización de jóvenes: usando memes o chistes de internet, se abre una puerta al extremismo.

Una IA entrenada en /pol/

¿A quién chin… se le ocurre? Pues a un programador e investigador de IA llamado Yannick Kilcher.

Kilcher publicó un video en YouTube llamado “Esta es la peor IA en la historia” que tiene cerca de 350 mil visitas. Ahí explica que este programa —una modelación de lenguaje bastante simple— utilizó casi 4 años de publicaciones en 4chan para aprender cómo hablaban, cómo respondían y cómo insultaban los usuarios de /pol/

Sus resultados fueron muy buenos…. ¿o tendríamos que decir muy malos?

La IA entrenada en 4chan logró replicar los insultos, la violencia y hasta las ideas medio nazis que se aparecen “en broma” al interior de /pol/.

¿Y después? La dejaron libre

Hasta este momento todo era un chiste de internet o una idea curiosa para ver cuántos insultos por segundo puede decir una computadora. Sin embargo, después llegó la polémica: este programador dejó a su IA correr libre por internet.

En un lapso de algunos días, publicó más de 30 mil publicaciones en 4chan. Ya se imaginarán qué tanta cosa decía.

Foto: Pexels

Al mismo tiempo publicó un sitio donde podías interactuar con este programa, repartió el código libre para poder replicar el modelo en tu casa y en la plataforma llamada Hugging Face presentó la versión ya entrenada —o radicalizada— para que tú pudieras hacer lo mismo. La publicación tenía una advertencia que decía:

“Es extremadamente probable que este modelo produzca resultados ofensivos que incluyen, pero no se limitan, a comentarios tóxicos, discurso de odio, racismo, sexismo, homofobia, antisemitismo y xenofobia. Debido a lo anterior, se recomienda no liberar este modelo en un ambiente real”

Y ahí es donde se soltó la discusión ética sobre la publicación de esta IA.

¿Discusión ética sobre una IA de 4chan?

Apenas se publicó esta IA entrenada en 4chan se armó una discusión interesante sobre la ética en la investigación computacional. Lo que empezó como una broma, terminó tocando temas temas mucho más delicados.

La plataforma Hugging Face borró la versión publicada —aunque ya lo habían descargado casi mil 500 personas.

Especialistas en investigación o en sistemas computacionales criticaron que existiera un modelo que únicamente buscaba replicar discursos de odio. ¿Para qué sirve? ¿Es un adelanto experimental o solo fue una movida para conseguir publicidad? ¿El modelo estaba reproduciendo y esparciendo violencia? Los cates se pusieron con todo.

Foto: Pixabay

El autor original aseguró que todo era una broma, que no tenía que tomarse en serio. Una experta en investigación médica aseguró que un experimento así jamás se aprobaría en un Comité de Ética.

Liberar a una IA entrenada en 4chan —que claramente tenía potencial violento— se ha presentado como un punto de partida para una discusión más profunda. Además de las complicaciones éticas de no decirle a los usuarios que interactuaron con ella que se trataba de un bot, la comunidad científica ha estado desarrollado guías explícitas antes de liberar IA con tendencias a pasarse al lado oscuro.

Este caso podrá parecer chiste y sin duda tiene su grado de extrañeza, pero en un mundo donde las IA son cada vez más avanzadas…. vale la pena preguntarse varias cosas antes.

Todo lo que no sabías que necesitas saber lo encuentras en Sopitas.com

Soy Max Carranza y me he pasado la vida rodeado de memes, cultura digital y bastantes horas frente a las pantallas. En el camino me encontré la pasión por abordar los temas sociales más urgentes e intentar...

Comentarios