Cuando el algoritmo entra al consultorio: responsabilidad médica y control humano en la era de la inteligencia artificial
Dr. Rafael Acevedo. Abogado, especialista en responsabilidad médica.
La irrupción de la inteligencia artificial (IA) en el ámbito de la salud constituye uno de los cambios más profundos en la historia reciente de la medicina. Sistemas de apoyo al diagnóstico, algoritmos predictivos y herramientas de análisis masivo de datos comienzan a integrarse en la práctica clínica cotidiana, prometiendo mayor precisión, eficiencia y seguridad para los pacientes. Sin embargo, este proceso también plantea interrogantes jurídicos complejos, especialmente en materia de responsabilidad profesional médica.
En los últimos años, el debate sobre la incorporación de la inteligencia artificial en la práctica médica ha dejado de ser una cuestión prospectiva para convertirse en una realidad concreta del ejercicio profesional. Superada la etapa inicial de asombro tecnológico y de aproximaciones generales de carácter ético, comienza a imponerse una pregunta central desde el punto de vista jurídico: ¿cómo impacta el uso de sistemas algorítmicos en la responsabilidad profesional del médico y en los deberes que estructuran el acto clínico?
Lejos de tratarse de un problema exclusivamente tecnológico, la incorporación de IA interpela principios clásicos del derecho sanitario: el estándar de atención, el consentimiento informado, la relación médico-paciente y el factor de atribución de responsabilidad. En países como la Argentina, donde la adopción de estas tecnologías avanza de manera desigual y con marcos regulatorios aún incipientes, el debate resulta particularmente relevante.
La IA como herramienta médica: entre asistencia y autonomía
Desde una perspectiva funcional, la IA aplicada a la medicina puede clasificarse -con valor jurídico- en dos grandes categorías. Por un lado, los sistemas de IA asistencial, diseñados para apoyar al profesional en la toma de decisiones clínicas. Es el caso de los algoritmos de diagnóstico por imágenes en radiología, los sistemas de apoyo a la detección de arritmias en cardiología o las herramientas de clasificación de lesiones cutáneas en dermatología.
Por otro lado, se proyectan sistemas de IA con mayor grado de autonomía, capaces de emitir recomendaciones terapéuticas o priorizar pacientes sin intervención humana directa. Si bien estas aplicaciones aún se encuentran en etapas experimentales, su eventual implementación obligará a replantear categorías tradicionales del derecho de la responsabilidad.
En el estado actual de desarrollo, la IA no sustituye al médico. Jurídicamente, continúa siendo una herramienta, por sofisticada que sea, integrada al acto médico. En consecuencia, la responsabilidad profesional no se desplaza hacia el algoritmo ni se diluye en la tecnología: el médico sigue siendo el garante del proceso asistencial.
El estándar de atención en la era algorítmica
Uno de los principales desafíos jurídicos reside en la redefinición del estándar de atención. Tradicionalmente, la conducta médica se evalúa comparándola con la de un profesional diligente de la misma especialidad, en circunstancias similares y conforme a los conocimientos científicos disponibles.
La introducción de IA complejiza este análisis. ¿Debe considerarse negligente un médico que no utiliza una herramienta de IA ampliamente aceptada? ¿Y aquel que la utiliza sin comprender adecuadamente sus limitaciones?
En especialidades como la radiología, donde los algoritmos de detección de lesiones pulmonares o mamarias ya muestran tasas de acierto comparables -o superiores- a las humanas, la omisión injustificada de estas herramientas podría, en el futuro, ser considerada una desviación del estándar. A la inversa, el uso acrítico de un sistema opaco (“caja negra”) que arroja resultados erróneos también puede constituir negligencia profesional.
El deber del médico se amplía: no solo debe saber medicina, sino también comprender el funcionamiento general, los alcances y las limitaciones de las herramientas tecnológicas que incorpora a su práctica.
Sesgos algorítmicos y riesgos jurídicos
Un problema central de la IA médica es el sesgo algorítmico. Muchos sistemas se entrenan con bases de datos que no representan adecuadamente a determinadas poblaciones. Esto puede generar errores sistemáticos en grupos específicos de pacientes.
En cardiología, por ejemplo, se ha observado que algunos algoritmos predictivos de riesgo cardiovascular presentan menor precisión en mujeres o en poblaciones no incluidas en los datos de entrenamiento. En psiquiatría, los sistemas de análisis de lenguaje natural pueden interpretar erróneamente expresiones culturales o regionales, con consecuencias clínicas relevantes.
Desde el punto de vista jurídico, el uso de una herramienta sesgada sin advertir -o sin informar- sus limitaciones puede comprometer la responsabilidad del profesional y de las instituciones de salud. El principio de transparencia adquiere aquí un rol central.
Consentimiento informado: un contenido ampliado
La utilización de IA en la práctica médica exige una redefinición del consentimiento informado. Ya no basta con explicar el procedimiento diagnóstico o terapéutico: el paciente debe conocer si se emplearán sistemas algorítmicos, cuál es su función, su grado de influencia en la decisión clínica y qué alternativas existen.
En la Argentina, donde el consentimiento informado tiene jerarquía legal y constitucional, este punto resulta crucial. La falta de información adecuada sobre el uso de IA puede viciar el consentimiento y generar responsabilidad, incluso en ausencia de un error técnico.
Este deber se intensifica cuando se trata de poblaciones vulnerables o de sistemas complejos cuya lógica resulta difícil de explicar. La complejidad tecnológica no exime al profesional de su obligación informativa; por el contrario, la refuerza.
Responsabilidad profesional y modelos de atribución
Los sistemas clásicos de responsabilidad médica, basados en la culpa, continúan siendo aplicables en la actualidad. El médico responde cuando actúa con negligencia, imprudencia o impericia, incluso si el daño se produce en un contexto tecnológico avanzado.
No obstante, no perdamos de vista que ya algunos autores proponen explorar modelos complementarios de responsabilidad objetiva o sin culpa, especialmente si en el futuro se implementan sistemas altamente autónomos, lo cual tiene incidencia en cómo gestionaremos en el corto plazo el riesgo médico legal.
En cualquier caso, mientras la IA no sea jurídicamente reconocida como sujeto autónomo -algo hoy impensable-, la responsabilidad seguirá recayendo en los profesionales, instituciones y financiadores del sistema de salud.
Desafíos institucionales y rol de los colegios profesionales
La Organización Mundial de la Salud ha establecido principios éticos para el uso de IA en salud, como la explicabilidad, la equidad, la protección de datos y la supervisión humana. Estos lineamientos deberían ser incorporados progresivamente por los colegios profesionales y las autoridades sanitarias.
En la Argentina, resulta imprescindible que los códigos de ética médica y los programas de formación continua incluyan contenidos específicos sobre IA. El desconocimiento tecnológico ya no puede ser considerado una excusa válida en un entorno profesional cada vez más digitalizado.
Reflexión final
La incorporación de la inteligencia artificial en la práctica médica no implica una ruptura con los principios clásicos de la responsabilidad profesional, pero sí exige su reinterpretación en un entorno tecnológico crecientemente complejo. El médico continúa siendo el sujeto central del acto clínico y, por ende, el principal responsable frente al paciente, aun cuando incorpore herramientas algorítmicas en su ejercicio profesional.
Lejos de diluir la responsabilidad, el uso de IA la redefine y, en muchos aspectos, la intensifica. Al deber tradicional de actuar conforme al saber médico se suman hoy obligaciones adicionales: comprender el alcance y las limitaciones de los sistemas utilizados, supervisar críticamente sus resultados, informar adecuadamente al paciente y conservar el control decisorio sobre el proceso asistencial. En el estado actual, la delegación acrítica en la tecnología no solo resulta clínicamente riesgosa, sino jurídicamente inadmisible.
En el contexto argentino, caracterizado por la ausencia de un marco normativo específico y uniforme en la materia, estos desafíos adquieren una relevancia particular. La falta de regulación no atenúa la responsabilidad profesional, sino que refuerza la necesidad de actuar conforme a los principios generales del derecho sanitario, la ética médica y la protección de los derechos del paciente. No resulta difícil anticipar que, en el futuro próximo, los tribunales deberán analizar la conducta médica considerando el uso -o la omisión- de herramientas de inteligencia artificial como parte integrante del estándar de atención.
El verdadero desafío no reside en automatizar la medicina ni en sustituir el juicio clínico, sino en integrar la inteligencia artificial como un instrumento al servicio de la decisión humana, bajo criterios de transparencia, control y supervisión profesional efectiva.
En definitiva, la inteligencia artificial no desplaza al médico, pero redefine su rol. Frente a esta transformación, la pregunta ya no es si la tecnología debe incorporarse al ejercicio de la medicina, sino en qué medida el derecho y la práctica profesional están preparados para garantizar que esa incorporación no debilite, sino que refuerce, la calidad en la atención, la seguridad del paciente y una justa aplicación in concreto de los presupuestos de la responsabilidad profesional y sanatorial.
