Los sistemas de IAG son capaces de aprender a crear arte, música y escritura que antes sólo se producían mediante la intervención humana.
La inteligencia artificial generativa (IAG) es una de las tecnologías más interesantes y disruptivas de la actualidad. Los sistemas de IAG son capaces de aprender a crear arte, música, escritura y otros tipos de contenido que antes sólo se producían mediante la intervención humana. Sin embargo, la utilización de estas herramientas plantea muchas preguntas éticas. Y tal vez es necesario empezar a establecer códigos de ética claros para su uso.
Apenas en esta semana que se termina los anuncios en la industria de la inteligencia artificial han estado a la orden del día. OpenAI dio a conocer que GPT4—el sucesor al modelo de lenguaje que utiliza ChatGPT actualmente—está disponible en algunas pruebas beta. Sin explicar por qué, se presenta como una herramienta mucho más poderosa; incluso, con capacidad de procesar imágenes.
Paralelamente, Google incorporó algunas funciones a Gmail y a Docs impulsadas con inteligencia artificial. Asimismo, Word dio a conocer que ya muy pronto habrá un copiloto impulsado en IA incorporado en su paquetería básica. Pa’ pronto, ahora sí ya no hay escapatoria de estas tecnologías. Y a partir de esa premisa es que hay que empezar a operar.
Inteligencia artificial y transparencia
El peligro más obvio de la inteligencia artificial generativa es la falta de transparencia. Cuando un humano crea una obra de arte, sabemos que lo ha hecho una persona con ciertas habilidades, limitaciones y sesgos. Pero cuando se crea una obra de arte con IAG, no podemos estar seguros de cuáles son los sesgos que hay detrás.
Si no sabemos cómo funciona la IAG, ¿cómo podemos estar seguros de que no está produciendo contenido ofensivo o peligroso? Si un chatbot está impulsado por una IAG, ¿cómo podemos estar seguros de que no está propagando información falsa o dañina?
Por lo tanto, es necesario que establezcamos códigos de ética claros para la IAG. Exigir que los creadores de IAG expliquen cómo funcionan sus sistemas, qué bases de datos han utilizado para entrenarlos y cómo se han seleccionado esas bases de datos. Debemos tener la capacidad de analizar el contenido producido por una IAG para determinar si es aceptable o no… y en qué términos.
No es menor que en China desde hace tiempo se han realizado esfuerzos desde el gobierno para obligar a que cualquier empresa que emplee un algoritmo explique cómo funciona y qué datos recopila. Sobre todo, que cualquier usuario pueda apagar el procesamiento de información en una app o plataforma que se use.
¿Qué le viene a la creación de contenido?
En segundo lugar, la IAG va a reconfigurar muchas industrias creativas. Los sistemas de IAG ya se utilizan en la producción de música, escritura y arte, y pronto se utilizarán en muchos otros campos creativos. Por ejemplo, los sistemas de IAG ya se están utilizando en la producción de guiones cinematográficos. En el futuro, podría ser posible utilizar la IAG para crear películas completas.
Esto plantea muchas preguntas interesantes. Por ejemplo, ¿los sistemas de IAG son capaces de producir obras de arte de la misma calidad que los seres humanos? ¿Son capaces de producir obras de arte que sean verdaderamente creativas y originales? ¿O simplemente se limitan a copiar obras de arte existentes y combinarlas de nuevas maneras? Y si ése es el caso, ¿será suficiente para las audiencias?
Si los sistemas de IAG son capaces de producir obras de arte de alta calidad, ¿qué implicaciones tendrá esto para los artistas humanos? ¿Serán reemplazados por robots que produzcan obras de arte más baratas y más rápidamente? ¿O la IAG será una herramienta que los artistas humanos puedan utilizar para mejorar su propia creatividad?
En cualquier caso, es necesario que establezcamos códigos de ética claros para la IAG en el campo creativo. Debemos exigir que los creadores de IAG expliquen cómo funciona su tecnología, qué bases de datos se han utilizado para entrenarla y cómo se han seleccionado esas bases de datos. Hay que tener la capacidad de analizar el contenido producido por una IAG para determinar si es aceptable o no. Y debemos ser conscientes de las implicaciones de la IAG para las industrias creativas y asegurarnos de que se implemente de una manera ética y justa.
La IAG es una tecnología con un gran potencial, pero también conlleva riesgos significativos. Se debe identificar estos riesgos y trabajar para desarrollar un marco ético sólido para su uso. Solo así podemos asegurarnos de que la IAG se utilice de manera responsable y beneficie a la sociedad en su conjunto.