Inteligencia artificial en la medicina: �El peligro oculto en los datos no certificados�
Dr. Miguel Cuch� Alfaro. Director M�dico y de Innovaci�n*; D. Javier Reyna Calatayud. Subdirector de SSII (sistemas de informaci�n) *; D� Laura Rodr�guez Pazos. Ingeniera biom�dica. �rea de Innovaci�n. Direcci�n M�dica*; D. Alberto L�pez Vel�zquez. Jefe de secci�n de Inform�tica*; Alhambra Health
*Hospital Universitario Puerta de Hierro Majadahonda
13/02/2025
Sesgos en los datos para el entrenamiento de la IA y su impacto cl�nico
Uno de los problemas m�s destacados en el informe de ECRI es el uso de bases de datos (BD) que no reflejan la diversidad y complejidad de las poblaciones reales. Por ejemplo, los modelos de IA entrenados con datos predominantemente masculinos pueden fallar al detectar condiciones espec�ficas en mujeres, como enfermedades card�acas con s�ntomas at�picos.
Otro caso com�n es la subrepresentaci�n de pacientes de ciertas etnias o regiones geogr�ficas, lo que genera sesgos algor�tmicos que comprometen los resultados. Un ejemplo preocupante es el uso de herramientas de diagn�stico radiol�gico que no identifican con precisi�n patolog�as en im�genes provenientes de poblaciones poco representadas en los datos de entrenamiento.
La falta de estandarizaci�n y certificaci�n de los datos m�dicos utilizados amplifica estos problemas, poniendo en riesgo la equidad y la seguridad en la atenci�n m�dica.
�Alucinaciones� de la IA: decisiones err�neas y peligrosas
El informe subraya un fen�meno cada vez m�s documentado: las �alucinaciones� de la IA. Este t�rmino describe situaciones en las que un modelo genera respuestas err�neas o sin fundamento, especialmente cuando enfrenta escenarios fuera de su dominio de entrenamiento. En medicina, esto podr�a derivar en diagn�sticos o recomendaciones terap�uticas incorrectas, con consecuencias potencialmente fatales.
Por ejemplo, una IA utilizada en triaje hospitalario podr�a clasificar incorrectamente a un paciente cr�tico como no urgente si los datos no certifican adecuadamente escenarios de alta variabilidad cl�nica.

Regulaci�n Europea: estrategias para la mitigaci�n de riesgos
La Uni�n Europea ha adoptado un enfoque m�s proactivo respecto a la regulaci�n de la IA en medicina a trav�s del Reglamento de Dispositivos M�dicos (MDR, por sus siglas en ingl�s) y el pr�ximo Reglamento de Inteligencia Artificial (AI Act). Estas normativas establecen est�ndares rigurosos para el desarrollo, la implementaci�n y la supervisi�n de tecnolog�as basadas en IA, con un �nfasis en la transparencia y la seguridad.
- Clasificaci�n de riesgos de la IA: El AI Actual establece diferentes categor�as de riesgo para las aplicaciones de IA, considerando las implicaciones para la salud y los derechos fundamentales de los pacientes. Las soluciones de IA utilizadas en medicina suelen clasificarse como de �alto riesgo�, lo que exige evaluaciones estrictas antes de su implementaci�n.
- Requisitos de datos de alta calidad: La regulaci�n exige que los modelos de IA se entrenen con conjuntos de datos que sean representativos, relevantes y libres de sesgos. Adem�s, las empresas desarrolladoras deben proporcionar evidencia clara de la calidad y fiabilidad de sus datos.
- Supervisi�n continua y transparencia: La normativa europea promueve el uso de auditor�as independientes y el registro de las decisiones tomadas por la IA, garantizando trazabilidad y responsabilidad en caso de errores.
- Marcado CE y conformidad: Todas las herramientas de IA m�dica deben obtener el marcado CE, demostrando su cumplimiento con los est�ndares europeos de seguridad, eficacia y �tica.
Recomendaciones de ECRI para la implementaci�n segura de IA
ECRI sugiere que, adem�s de adherirse a normativas como las de la UE, las instituciones sanitarias implementen pr�cticas complementarias para mitigar riesgos, tales como:
- Revisi�n multidisciplinaria de modelos de IA: Formar comit�s de �tica y tecnolog�a que eval�en las aplicaciones antes de su adopci�n.
- Capacitaci�n del personal sanitario: Asegurar que m�dicos y enfermeros comprendan los l�mites de la IA, manteniendo el juicio cl�nico como eje central.
- Actualizaci�n constante de los modelos: Invertir en la actualizaci�n de los algoritmos con datos nuevos y m�s diversos.
Reflexi�n
El informe ECRI 2025 pone de manifiesto una preocupaci�n cr�tica: el impacto negativo de la IA basada en datos no certificados y sesgados. Si bien esta tecnolog�a ofrece un potencial transformador, la falta de calidad en los datos y la supervisi�n pueden convertirla en un arma de doble filo.
Europa, con su enfoque regulatorio pionero, establece un modelo a seguir, priorizando la seguridad y la transparencia. Sin embargo, el camino hacia una IA m�dica �tica y efectiva requiere un esfuerzo conjunto entre gobiernos, desarrolladores y profesionales sanitarios.
Solo mediante un enfoque integral se podr� garantizar que la IA cumpla su promesa de revolucionar la atenci�n sanitaria sin comprometer la seguridad de los pacientes.