Esto de la inteligencia artificial (IA) es el tema de nuestros días y ya hemos visto cómo varios especialistas han salido a advertir de su uso —sobre todo porque se trata aún de un campo incierto, del que queda un montón por saber— y, bueno, a esta ola de análisis se sumó la OMS.
Cosa que no es una sorpresa porque —como lo comenta Raúl Bravo, colaborador de Sopitas.com en ‘¿ChatGTP o extinción? Algunos riesgos de la inteligencia artificial‘— es bien difícil pensar en un sector que todavía no esté analizando las oportunidades o los riesgos de la IA.
Y aquí tenemos a la OMS (Organización Mundial de la Salud), que enumeró estas 5 dudas sobre la aplicación de la inteligencia artificial en la salud pública. Pásenle a leer.
5 dudas de la OMS sobre el uso de la inteligencia artificial en la Salud
También armamos este texto a propósito de las declaraciones de Michael Ryan, director de Emergencias Sanitarias de la OMS, quien a inicios de junio de este 2023 puso en la balanza los usos de la inteligencia artificial.
Entre los positivos está la detección de los indicios de una epidemia en el mundo, cómo responde una población ante un evento sanitario, la identificación de moléculas que puedan servir como antivirales o hacer diagnósticos sencillos.
Ryan calificó esto como “progresos muy positivos” que pueden lograrse gracias a la IA.
Peeeeero, como toda herramienta, pues… en las manos equivocadas o sin las regulaciones que se necesitan, la inteligencia artificial conlleva riesgos, advirtió.
Y ahora sí: las dudas de la OMS —publicadas hace un rato, en mayo de 2023— van en este tenor.
Porque explicó que el uso precipitado de la IA podría terminar en errores cometidos por el personal de salud o causar daños en los/las pacientes e incluso darle en la torre a la confianza en la inteligencia artificial y otras tecnologías.
Los datos sesgados
Saben que la inteligencia artificial funciona como una red —programada con algoritmos— que se nutre de una base de datos que, obvio, funciona como su fuente de información.
Sin embargo, para la OMS estas bases pueden traer datos sesgados, lo que generaría información engañosa o imprecisa.
Y si se utiliza para temas médicos y de salud, pues imaginen el problemón en la atención médica.
Además de broncas en temas de equidad e inclusión. Por ejemplo, los diagnósticos que se pueden hacer con IA en zonas de escasos recursos… sí, es una ventaja porque ampliaría la cobertura pero, ¿qué pasaría si esa información es inexacta y se aplica de manera errónea entre estas poblaciones?
Se profundizaría la inequidad y exclusión en estas zonas, entre sus poblaciones y habría una bronca de salud pública.
¿Son las respuestas correctas?
Otra vez con la información. De acuerdo con la OMS, la IA puede generar respuestas que podrían parecer autorizadas para el usuario final, pero existe la posibilidad de que estas respuestas contengan graves errores.
Más fake news
De la mano con la información que pueda parecer como oficial o autorizada en los campos de salud pública, está el hecho de que si se usa de manera indebida podemos caer en la generación y difusión de más fake news. Información falsa que difícilmente los usuarios podrían detectar como tal.
La protección de datos
¿Qué hay de los datos que una persona ingresa al momento de hacer una consulta en una app?
La IA se alimenta de información contenida en una base de datos, pero si esta no cuenta con el consentimiento para usar la información de los/las pacientes, por ejemplo, estamos ante un riesgo de protección de datos confidenciales.
Más vale prevenir
Y por último, la OMS recomienda que antes de que las instituciones de salud y las empresas utilicen en corto las IA, deberían echarle un ojo a los temas de seguridad y protección de los pacientes.
Porque la comercialización de la inteligencia artificial es rapidísima, pero quién se detiene a pensar en las implicaciones que mencionamos acá arriba y se compromete a asegurar que, por lo pronto, todo está ok.