Info

ECRI 2025: Los riesgos de la IA basada en datos no certificados en la medicina

Inteligencia artificial en la medicina: �El peligro oculto en los datos no certificados�

Dr. Miguel Cuch� Alfaro. Director M�dico y de Innovaci�n*; D. Javier Reyna Calatayud. Subdirector de SSII (sistemas de informaci�n) *; D� Laura Rodr�guez Pazos. Ingeniera biom�dica. �rea de Innovaci�n. Direcci�n M�dica*; D. Alberto L�pez Vel�zquez. Jefe de secci�n de Inform�tica*; Alhambra Health

*Hospital Universitario Puerta de Hierro Majadahonda

13/02/2025
El Instituto ECRI, prestigiosa organizaci�n estadounidense dedicada a la evaluaci�n de tecnolog�as sanitarias, ha alertado en su informe anual de riesgos tecnol�gicos 2025 sobre el peligro emergente de las soluciones de inteligencia artificial (IA) entrenadas con datos no certificados o sesgados en el �mbito m�dico. Este escenario, agravado por la falta de regulaci�n uniforme a nivel global, representa un desaf�o cr�tico para la seguridad del paciente y la eficacia cl�nica.
Imagen

Sesgos en los datos para el entrenamiento de la IA y su impacto cl�nico

Uno de los problemas m�s destacados en el informe de ECRI es el uso de bases de datos (BD) que no reflejan la diversidad y complejidad de las poblaciones reales. Por ejemplo, los modelos de IA entrenados con datos predominantemente masculinos pueden fallar al detectar condiciones espec�ficas en mujeres, como enfermedades card�acas con s�ntomas at�picos.

Otro caso com�n es la subrepresentaci�n de pacientes de ciertas etnias o regiones geogr�ficas, lo que genera sesgos algor�tmicos que comprometen los resultados. Un ejemplo preocupante es el uso de herramientas de diagn�stico radiol�gico que no identifican con precisi�n patolog�as en im�genes provenientes de poblaciones poco representadas en los datos de entrenamiento.

La falta de estandarizaci�n y certificaci�n de los datos m�dicos utilizados amplifica estos problemas, poniendo en riesgo la equidad y la seguridad en la atenci�n m�dica.

�Alucinaciones� de la IA: decisiones err�neas y peligrosas

El informe subraya un fen�meno cada vez m�s documentado: las �alucinaciones� de la IA. Este t�rmino describe situaciones en las que un modelo genera respuestas err�neas o sin fundamento, especialmente cuando enfrenta escenarios fuera de su dominio de entrenamiento. En medicina, esto podr�a derivar en diagn�sticos o recomendaciones terap�uticas incorrectas, con consecuencias potencialmente fatales.

Por ejemplo, una IA utilizada en triaje hospitalario podr�a clasificar incorrectamente a un paciente cr�tico como no urgente si los datos no certifican adecuadamente escenarios de alta variabilidad cl�nica.

Imagen

Regulaci�n Europea: estrategias para la mitigaci�n de riesgos

La Uni�n Europea ha adoptado un enfoque m�s proactivo respecto a la regulaci�n de la IA en medicina a trav�s del Reglamento de Dispositivos M�dicos (MDR, por sus siglas en ingl�s) y el pr�ximo Reglamento de Inteligencia Artificial (AI Act). Estas normativas establecen est�ndares rigurosos para el desarrollo, la implementaci�n y la supervisi�n de tecnolog�as basadas en IA, con un �nfasis en la transparencia y la seguridad.

  1. Clasificaci�n de riesgos de la IA: El AI Actual establece diferentes categor�as de riesgo para las aplicaciones de IA, considerando las implicaciones para la salud y los derechos fundamentales de los pacientes. Las soluciones de IA utilizadas en medicina suelen clasificarse como de �alto riesgo�, lo que exige evaluaciones estrictas antes de su implementaci�n.
  2. Requisitos de datos de alta calidad: La regulaci�n exige que los modelos de IA se entrenen con conjuntos de datos que sean representativos, relevantes y libres de sesgos. Adem�s, las empresas desarrolladoras deben proporcionar evidencia clara de la calidad y fiabilidad de sus datos.
  3. Supervisi�n continua y transparencia: La normativa europea promueve el uso de auditor�as independientes y el registro de las decisiones tomadas por la IA, garantizando trazabilidad y responsabilidad en caso de errores.
  4. Marcado CE y conformidad: Todas las herramientas de IA m�dica deben obtener el marcado CE, demostrando su cumplimiento con los est�ndares europeos de seguridad, eficacia y �tica.

Recomendaciones de ECRI para la implementaci�n segura de IA

ECRI sugiere que, adem�s de adherirse a normativas como las de la UE, las instituciones sanitarias implementen pr�cticas complementarias para mitigar riesgos, tales como:

  • Revisi�n multidisciplinaria de modelos de IA: Formar comit�s de �tica y tecnolog�a que eval�en las aplicaciones antes de su adopci�n.
  • Capacitaci�n del personal sanitario: Asegurar que m�dicos y enfermeros comprendan los l�mites de la IA, manteniendo el juicio cl�nico como eje central.
  • Actualizaci�n constante de los modelos: Invertir en la actualizaci�n de los algoritmos con datos nuevos y m�s diversos.

Reflexi�n

El informe ECRI 2025 pone de manifiesto una preocupaci�n cr�tica: el impacto negativo de la IA basada en datos no certificados y sesgados. Si bien esta tecnolog�a ofrece un potencial transformador, la falta de calidad en los datos y la supervisi�n pueden convertirla en un arma de doble filo.

Europa, con su enfoque regulatorio pionero, establece un modelo a seguir, priorizando la seguridad y la transparencia. Sin embargo, el camino hacia una IA m�dica �tica y efectiva requiere un esfuerzo conjunto entre gobiernos, desarrolladores y profesionales sanitarios.

Solo mediante un enfoque integral se podr� garantizar que la IA cumpla su promesa de revolucionar la atenci�n sanitaria sin comprometer la seguridad de los pacientes.

Empresas o entidades relacionadas

Alhambra IT - Alhambra Systems, S.A.

Comentarios al art�culo/noticia

Deja un comentario

Para poder hacer comentarios y participar en el debate debes identificarte o registrarte en nuestra web.

�LTIMAS NOTICIAS

OPINI�N

OTRAS SECCIONES

SERVICIOS

OSZAR »