x

Adopción precipitada de Inteligencia Artificial en salud puede perjudicar a los pacientes

El uso de herramientas basadas en Inteligencia Artificial como ChatGPT, Bard y Bert podría ser contraproducente al ser aplicado en la salud.
Inteligencia Artificial
  • Gracias a la Inteligencia Artificial se pueden hacer análisis de millones de expedientes clínicos en apenas unos segundos.
  • El uso de plataformas como ChatGPT, Bard y Bert ha sorprendido por todas las capacidades que ofrece.
  • La OMS asegura que la adopción precipitada de este tipo de tecnologías dentro del campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes.

 

Uno de los máximos objetivos de la tecnología es facilitar las actividades cotidianas. Su avance ha sido tan drástico que ya se encuentra inmersa en todos los ámbitos de la vida. Tal es el caso de la Inteligencia Artificial que incluso ya se aplica dentro del campo de la salud. Pero ahora, una de las principales dudas es acerca de sus límites y capacidades.

Con esto en mente, la Organización Mundial de la Salud (OMS) publicó su punto de vista. Dejó en claro que la adopción precipitada de sistemas no probados de Inteligencia Artificial en el campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes. Por lo mismo, es fundamental hacer un uso ético de cualquier tipo de herramienta tecnológica.

De otra manera, añadió el organismo, sus consecuencias negativas erosionarán la confianza en la Inteligencia Artificial y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.

La agencia de la ONU explicó que los modelos de lenguaje generados por la Inteligencia Artificial incluyen plataformas de rápida expansión como ChatGPT, Bard y Bert entre muchas otras que imitan la compresión, el procesamiento y la producción de la comunicación humana.

La OMS reconoció las ventajas que puede suponer el uso adecuado de estas herramientas para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos. Sin embargo, planteó con preocupación la falta de cautela que caracteriza su uso y que no es comparable a la que se ejerce con otras nuevas tecnologías.

Los riesgos en el uso de la tecnología

Al referirse a los principales riesgos del uso de esas herramientas, la OMS enumeró los siguientes:

  • Los datos utilizados para las bases que nutren la Inteligencia Artificial pueden estar sesgados y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión.
  • Los modelos de lenguaje producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero éstas pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud.
  • Los modelos de lenguaje pueden recibir información sobre datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática.
  • Los modelos de lenguaje se pueden utilizar indebidamente para generar y difundir desinformación sobre la salud en forma de contenido de texto, audio o video difícil de diferenciar del contenido confiable.

Transparencia y supervisión experta

La OMS insistió en que el proceso de análisis de las herramientas de Inteligencia Artificial debe contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.

Si bien señaló que el rubro sanitario puede aprovechar las nuevas tecnologías para mejorar la salud humana, recomendó que los responsables de elaborar las políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los modelos de lenguaje.

“Es imperativo que se examinen cuidadosamente los riesgos cuando se usen modelos de lenguaje generados por la inteligencia artificial para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad”.

También propuso que se mida la evidencia clara del beneficio antes del uso generalizado de esas herramientas en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.

Como lo describe en su Guía sobre ética y gobernanza de la Inteligencia Artificial en el campo de la salud, la OMS reiteró que se debe proteger la autonomía; promover el bienestar humano, la seguridad humana y el interés público; garantizar la transparencia y la inteligibilidad; fomentar la responsabilidad y la rendición de cuentas; garantizar la inclusión y la equidad; y proteger la autonomía al diseñar, desarrollar y aplicar la tecnología con el fin de que su uso sea confiable y sostenible.

 

También lee:

Efectos nocivos de la tecnología: Abuso de dispositivos digitales produce cataratas y ojo seco

¿La tecnología puede ayudar a reducir las inequidades en salud?

Innovación mexicana: Investigadores del IPN utilizan la Inteligencia Artificial para detectar con anticipación el Alzheimer

Compartir

Lo más Reciente

ÚNETE A LA COMUNIDAD DE PROFESIONALES DE LA SALUD