Este sitio web utiliza cookies para mejorar la experiencia de navegación, personalizar las tutorías académicas y desarrollar investigación pedagógica. Si continúa consideramos que acepta su uso. Acepto Política de cookies

QUÉ NOS DIFERENCIA DE OTROS MODELOS

Practicum Script es un simulador de entrenamiento y evaluación del razonamiento clínico único en el mundo

Existen numerosas modelos de simulación clínica para ayudar a los estudiantes a asentar conocimientos teóricos, pero no entrenan y evalúan las habilidades de pensamiento superior necesarias para la toma de decisiones en la práctica clínica real (especialmente en situaciones inciertas). En términos de la pirámide de Miller, que representa el esquema más recurrente en el ámbito de la educación médica y la competencia profesional, la mayoría de las metodologías apenas cubre el escalón más bajo: el “saber”, mientras que el simulador de razonamiento clínico Practicum Script abarca también el “saber cómo” e incluso el “demostrar cómo”, promoviendo un aprendizaje significativo y contextual.

Madrid, 11 de julio de 2024. El reto actual de los planes de formación en medicina para la evaluación de la competencia clínica real se sitúa en el vértice de la pirámide conceptualizada por el psicólogo americano Miller G. [1] en 1990: el hacer (does-action). Para llegar ahí, antes hay que alcanzar los estados de knows-knowledge, knows how-competence y shows how-performance. En el camino, Shumway J.M. y Harden R. M. [2] consideran que hay que evaluar lo que los estudiantes hacen en la práctica y cómo aplican sus conocimientos de ciencias básicas y clínicas para el cuidado de los pacientes. Brailovsky C.A, [3] va más allá y apunta a la relevancia de la capacidad reflexiva y el razonamiento en la resolución de problemas clínicos. 

No cabe duda de que las habilidades de razonamiento clínico son esenciales para la toma de decisiones clínicas. Sin embargo, los métodos de evaluación actuales son limitados a la hora de poner a prueba el pensamiento clínico y el manejo de la incertidumbre. Lo más sencillo es apuntar a la memoria de los libros para validar el conocimiento adquirido y ahí es donde se anclan la mayoría de las soluciones de e-learning disponibles, que presentan ejercicios académicos de manual, útiles para memorizar contenidos teóricos y aprobar exámenes pero que no conducen a un aprendizaje significativo. Ahí es donde se abre un dilema ético en la educación médica: ¿deben las facultades de medicina preparar al estudiante para un examen o para tratar a un paciente?

Practicum Script da un salto cualitativo en la pedagogía médica, al abrazar la práctica reflexiva en entornos simulados de alta fidelidad y alejarse de los enfoques que instan a los estudiantes a seleccionar una única solución en torno a problemas clínicos algorítmicos idealmente definidos.  Estos enfoques, como sugería Cooke S. (4), carecen de autenticidad y pueden crear una impresión engañosa de certeza. Practicum Script se adentra en la complejidad y las singularidades de cada paciente y plantea desafíos que alientan el juicio clínico. Se trata de reforzar la capacidad de los estudiantes para integrar y aplicar diferentes tipos de conocimientos, así como de que comprendan y sopesen diferentes perspectivas plausibles.

Hornos E. subraya [5] que la metodología de Practicum Script es la única que se basa en la teoría del proceso dual de pensamiento de la psicología cognitiva y las neurociencias, que es la teoría más aceptada para explicar la cognición humana. El programa integra un enfoque probabilístico en la toma de decisiones en dos pasos y permite al alumno reproducir los procesos conscientes e inconscientes de razonamiento frente a un enfermo real. Además, una de las principales características distintivas de Practicum Script es el tipo y la finalidad de las preguntas que se plantean. Los multiple choice questionnaires a los que suelen recurrir la mayoría de las plataformas, presentan una lista de posibles respuestas para que los aprendices seleccionen la más adecuada. Esto, como indica Harden R. M. [6], implica un posible “efecto de reconocimiento” e ignora el razonamiento intuitivo.

Practicum Script aborda el proceso integral de la tarea de razonar, con casos clínicos reales y especial énfasis en la heurística. El primer desafío que enfrentan los estudiantes es generar hasta 3 hipótesis de abordaje en formato de texto libre (sistema 1, razonamiento heurístico), sin que se les ofrezcan posibles opciones de respuesta o suggesters de términos. Luego, deben argumentar sus hipótesis, identificando datos clave del paciente a favor y en contra, para fomentar su juicio crítico. Esto se complementa con la presentación de cinco escenarios clínicos en los que el alumno debe valorar el impacto de nuevas informaciones sobre las hipótesis iniciales (sistema 2, razonamiento analítico) y un paso de razonamiento inductivo para que el alumno saque conclusiones a partir de reexaminar la situación (razonamiento inductivo) y confrontar sus decisiones con las de un panel de expertos.

Por otra parte, el resto de las plataformas tienden a circunscribir su retroalimentación a respuestas correctas o incorrectas, a dar información médica sobre el tema o la enfermedad presentada en el caso y a proveer ciertos consejos para arribar a una conclusión determinada. Por el contrario, en Practicum Script el estudiante recibe una retroalimentación personalizada, que se apoya en medicina basada en la experiencia y medicina basada en la evidencia y que puede transferir a su futura práctica asistencial diaria con una mayor autonomía para tomar decisiones.

La calidad y la identidad se establecen por la diferencia. Practicum Script presenta casos con una historia clínica exhaustiva y no simples viñetas cortas pensadas para dar respuestas predefinidas. Además, los casos son reales y se sitúan en contextos de complejidad e incertidumbre, siempre acordes a la etapa formativa del ciclo clínico en cuestión. Esta complejidad, que no se refiere al nivel de dificultad o complicación, es irreductible y se hace cada vez más presente en los pacientes agudos y crónicos. La diferencia entre Practicum Script y otros modelos de simulación clínica es la autenticidad y la incitación a un pensamiento de nivel superior, amén de la calidad docente de un equipo de entre 30 y 40 personas (compuesto por un comité editorial de destacadas universidades de prestigio, un grupo internacional de validadores y otro de auditores locales). 

Nuestro modelo se sitúa en el escalafón previo a la práctica in vivo de la pirámide de Miller y supera las limitaciones de los enfoques tradicionales, centrados en el conocimiento teórico, además de incidir en el manejo de la complejidad clínica y corregir fallos cognitivos, que son responsables de un 75% de los errores médicos. Y la psicometría de un reciente estudio de Hornos E. [7] revela que lo hace con un alto nivel de confiabilidad y validez. 

El SCT: muy popular, pero cuestionado

En el mismo orden de cosas, aunque el Script Concordance Test (SCT) constituya la metodología más conocida para evaluar el razonamiento clínico, ha recibido numerosas críticas acerca de la escasa fiabilidad de su estructura para medir lo que dice medir y sus inconsistencias psicométricas. Nuestras propias investigaciones [8], sobre el SCT clásico han corroborado estas dificultades y han demostrado problemas de validez en el modo en el que el SCT asume las respuestas de los expertos como patrón de referencia para la notación de los participantes. 

Por otra parte, al excluir la generación de hipótesis, el SCT amputa el razonamiento clínico. Sin embargo, en Practicum Script la incorporación de la heurística, demandada por autores como Feufel M.A. [9], pone al estudiante sobre la pista de sus propias sospechas, que además luego habrá de ratificar o descartar en una escala de probabilidad bayesiana. 

Por último, Kreiter C.D. [10] y otras muchas voces señalan que la notación del SCT es muy cuestionable por su sistema de puntuación agregada y por la falta de verificación de las respuestas de los expertos con evidencia científica.  A diferencia de esto, con Practicum Script, los participantes pueden comparar sus respuestas con las de los expertos sin que estas se califiquen necesariamente como correctas o incorrectas, con el objeto de que comprendan y sopesen diferentes perspectivas plausibles. Cuando hay controversias entre los panelistas expertos, se recurre al método Delphi y se pone en valor la divergencia fundamentada de opiniones. Además, todas las respuestas de los expertos se justifican con literatura que avala acuerdos y discrepancias.

Para Lineberry M. [8], “incluso cuando los participantes no cambian sus creencias, conociendo otros puntos de vista, pueden calibrar su certeza y aplicar un pensamiento más abierto en el futuro”. Para el alumno que empieza a tener sus primeros contactos con la realidad clínica, esto lo ayuda a abrir  su mente a diagnósticos diferenciales (y alternativas de manejo), evitando una de las causas principales de error médico: el cierre prematuro de diagnóstico.

¿Y qué pasa con la IA?

La inteligencia artificial (IA) tiene un potencial enorme, todavía en definición, para apoyar la educación médica e incluso la labor asistencial de los facultativos. En nuestro caso, por ejemplo, OCMALE, acrónimo de Octopoda Machine Learning®, es un sistema de machine learning para el reconocimiento automático de hipótesis plausibles, con una elevada efectividad para dar una retroalimentación inmediata a los participantes en tres idiomas (inglés, español y portugués).

Ahora bien, fenomenológicamente, todos los seres humanos son distintos y, en consecuencia, la aleatoriedad es imprevisible y la singularidad infinita. En pruebas controladas, la IA no ha demostrado ser capaz de reemplazar a la cognición humana y la experiencia profesional para medir eficazmente el razonamiento clínico en contextos de incertidumbre. Por ejemplo, al tratar de resolver casos clínicos de Practicum Script con chat GPT-4, el chatbot con frecuencia falla en la generación de hipótesis porque formula hipótesis en función de estadísticas y guías de práctica clínica; por otra parte, los escenarios clínicos construidos por la IA carecen de incertidumbre y pueden ser resueltos únicamente través de la movilización de conocimientos teóricos, escorando el razonamiento clínico.

Veámoslo con un ejemplo: mujer de 68 años con fibrilación auricular con alta frecuencia ventricular y signos de deshidratación secundarios a vómitos acompañados de una pobre ingesta de líquidos, sin manifestaciones de insuficiencia cardíaca y con una presión arterial baja. Aquí chat GPT propuso una hipótesis correcta (digoxina) y dos no válidas (betabloqueantes y bloqueadores de los canales de calcio), sin tener en cuenta que, en el contexto particular de esta paciente, el uso de estos dos últimos medicamentos conlleva a un riesgo importante de agravar la hipotensión arterial. Por otro lado, falló en reconocer que la administración de líquidos intravenosos era la medida terapéutica más razonable en una situación en la que la arritmia cardíaca tenía su origen en la deshidratación.

 

 

Referencias bibliográficas

1. Miller G. The assessment of clinical skills/competence/performance. Acad Med 1990; 65: S63-7.

2. Shumway JM, Harden RM. AMEE Guide no. 25: The assessment of learning outcomes for the competent and reflective physician. Med Teach 2003; 25: 569-84.

3. Brailovsky CA. Educación médica, evaluación de las competencias. OPS/OMS, eds. Aportes para un cambio curricular en Argentina. Buenos Aires: University Press; 2001. p. 103-20.  

4. Cooke S, Lemay JF. Transforming Medical Assessment: Integrating Uncertainty Into the Evaluation of Clinical Reasoning in Medical Education. Acad Med. 2017 Jun;92(6):746-751.

5. Hornos E, Pleguezuelos EM, Bala L, van der Vleuten C, Sam AH. Online clinical reasoning simulator for medical students grounded on dual-process theory. Med Educ. 2024 May;58(5):580-581.

6. Harden RM. Harden’s blog: News from Roanoke, MCQs are dead, Learning analytics and ethical issues, Goodhart’s law and citation numbers, and Inspiring students (or trying to). URL: https://www.mededworld.org/hardens-blog/reflectionitems/July-2019/HARDEN-S-BLOG-News-from-Roanoke-- MCQs-are-dead--Le.aspx. [05.07.2019].

7. Hornos E, Pleguezuelos E, Bala L, Collares CF, Freeman A, van der Vleuten C, Murphy KG, Sam AH. Reliability, validity and acceptability of an online clinical reasoning simulator for medical students: An international pilot. Med Teach. 2024 Mar 15:1-8.

8. Lineberry M, Hornos E, Pleguezuelos E, Mella J, Brailovsky C, Bordage G. Experts' responses in script concordance tests: a response process validity investigation. Med Educ. 2019 Jul;53(7):710-722. 

9. Feufel MA, Flach JM. Medical education should teach heuristics rather than train them away. Med Educ. 2019 Apr;53(4):334-344.

10. Kreiter CD. Commentary: The response process validity of a script concordance test item. Adv Health Sci Educ Theory Pract. 2012 Mar;17(1):7-9.

 

Script Connect
Centro de atención personalizada

Ponemos a su disposición un servicio de atención personalizado, a través del cual obtener soporte técnico y ayuda, tanto para la navegación dentro del sitio como para el uso del programa.

Preguntas frecuentes