Definición
El disclaimer "asistencia, no diagnóstico" es la declaración formal mediante la cual un proveedor de tecnología de asistencia clínica establece que su sistema no está autorizado ni diseñado para realizar diagnósticos, evaluar competencias psicológicas, tomar decisiones clínicas ni sustituir el juicio del profesional humano calificado. El sistema es una herramienta — la responsabilidad clínica permanece íntegramente en el profesional que lo utiliza. Este disclaimer no es solo una formalidad legal: es una postura ética sobre el rol apropiado de la IA en contextos de alto impacto humano.
Cómo se usa
El disclaimer aparece en tres lugares: en los términos de servicio de la plataforma (en lenguaje legal), en el onboarding del profesional (en lenguaje claro y operativo) y en los reportes generados automáticamente (como recordatorio en cada documento).
En la práctica, esto significa que cuando CauceOS detecta una señal lingüística asociada a riesgo de crisis, no dice "este cliente tiene ideación suicida" — dice "se detectó lenguaje asociado a riesgo en el minuto 23:14" y le corresponde al profesional evaluar si esa señal tiene significado clínico en el contexto específico. El sistema señala; el profesional evalúa.
De igual forma, los reportes post-sesión son borradores estructurados para que el profesional los revise, corrija y firme — nunca documentos clínicos autogenerados que el profesional simplemente contrafirma sin revisar.
Cuándo aplicar
Este marco opera en cualquier contexto donde la IA procesa información de naturaleza clínica, psicológica o de bienestar: plataformas de teleatención, herramientas de coaching digital, sistemas de análisis de texto de sesiones. La frontera regulatoria entre "dispositivo de asistencia" y "dispositivo médico" varía por jurisdicción y está en evolución activa en muchos países.
Origen histórico
El debate sobre el rol apropiado de la IA en medicina y salud mental se intensificó con la aparición de sistemas de diagnóstico asistido por IA en los años 2010. El marco conceptual de "asistencia al profesional" como alternativa a la "sustitución del profesional" emergió como postura dominante en los foros de ética de IA en salud. La FDA en EE. UU. y la CE en Europa han establecido marcos regulatorios para "Software as a Medical Device" que determinan cuándo un sistema cruza de asistencia a dispositivo médico regulado.
Cómo lo soporta CauceOS
CauceOS incorpora el disclaimer en todos sus reportes generados automáticamente con el texto: "Este reporte es un borrador generado por IA como herramienta de apoyo. No reemplaza el juicio clínico del profesional. Toda nota debe ser revisada, modificada si es necesario y firmada por el profesional responsable de la sesión." El sistema no sugiere diagnósticos ni evalúa la competencia clínica del profesional.
Términos relacionados
- Detección de crisis — el disclaimer es especialmente crítico en la presentación de alertas de riesgo
- Consentimiento informado — el cliente también debe conocer las limitaciones del sistema
- Secreto profesional — la responsabilidad clínica es indivisible del secreto profesional
Referencias
- Topol, E. J. (2019). High-performance medicine: The convergence of human and artificial intelligence. Nature Medicine.
- American Psychological Association. (2020). Guidelines for the Practice of Telepsychology.
- European Commission. (2021). Proposal for a Regulation on a European approach for Artificial Intelligence (AI Act).