Información de la revista
Vol. 97. Núm. 2.
Páginas 87-94 (Agosto 2022)
Visitas
5089
Vol. 97. Núm. 2.
Páginas 87-94 (Agosto 2022)
Original
Open Access
Evaluación mediante script concordance test del razonamiento clínico de residentes en Atención Primaria
Clinical reasoning evaluation using script concordance test in primary care residents
Visitas
5089
Carlos Iglesias Gómeza,
Autor para correspondencia
doctoriglesias84@gmail.com

Autor para correspondencia.
, Ofelia González Sequerosb, Diego Salmerón Martínezc,d,e
a Centro de Salud Alcantarilla-Sangonera, Servicio Murciano de Salud, Alcantarilla, Murcia, España
b Departamento de Anatomía Humana y Psicobiología, Facultad de Medicina, Universidad de Murcia, Campus de Espinardo, Murcia, España
c Departamento de Ciencias Sociosanitarias, Universidad de Murcia, Campus de Espinardo, Murcia, España
d Centro de Investigación Biomédica en Red (CIBER) Epidemiología y Salud Pública (CIBERESP), Murcia, España
e Instituto Murciano de Investigación Biomédica-Arrixaca, El Palmar, Murcia, España
Contenido relaccionado
Miguel Ángel Fernández-Cuesta Valcarce, Carmen Villaizán Pérez
Este artículo ha recibido

Under a Creative Commons license
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (7)
Mostrar másMostrar menos
Resumen
Introducción

Actualmente desconocemos el razonamiento clínico objetivo de los residentes durante su formación, lo que impide orientar su reciclaje formativo a solventar los déficits detectados. El script concordance test (SCT) evalúa el razonamiento clínico planteando situaciones clínicas reales, pero aún no ha sido utilizado en España con contenidos propios de Atención Primaria. Por ello consideramos relevante diseñar un SCT de Atención Primaria que cumpla los criterios de validez, fiabilidad y aceptabilidad descritos en la bibliografía.

Métodos

Elaboración, corrección y validación de un SCT para evaluar el razonamiento clínico en Atención Primaria de los residentes y que incluya variables sociolaborales para estudiar su posible relación con la puntuación obtenida.

Resultados

Nuestro cuestionario fue aprobado por un comité de expertos, alcanzó una fiabilidad y accesibilidad adecuadas, y distinguió a los expertos de los residentes. No se observaron diferencias estadísticamente significativas en función de la edad, género, tipo y duración de la formación recibida en Atención Primaria, y la realización de un curso sobre dicha formación.

Conclusiones

Se construyó un SCT que obtuvo la aprobación por parte de un comité de expertos, cumplió con los criterios de fiabilidad y accesibilidad, y permitió objetivar diferencias significativas en el razonamiento clínico de los expertos y residentes. Excepto en el 2.o año de residencia, no se observaron diferencias estadísticamente significativas respecto al año formativo dentro de la residencia, la edad, el género, la realización y duración de la rotación en Atención Primaria y la realización de un curso sobre dicha formación.

Palabras clave:
Script concordance test
Pediatría de Atención Primaria
Evaluación médica
Reciclaje formativo
Razonamiento clínico
Abstract
Introduction

Actual unawareness about paediatric resident's residency program factual clinical reasoning precludes professional retraining directed to solve deficiencies. Script concordance test (SCT) evaluates clinical reasoning due to its orientation to usual clinical practice but surprisingly it has not been used in Spain for Paediatric Primary Care clinical reasoning evaluation so far. Due to this we consider to be of relevance to design a paediatric primary care SCT which meets validity, reliability and accessibility criteria described in bibliography.

Methods

Development, validation and application of an SCT questionnaire for clinical reasoning analysis in paediatric primary care applied on a population of paediatric residents and which includes demographic and employment data in order to study possible relationship between them and achieved scores.

Results

Our SCT was approved by an experts committee. It met reliability and accessibility criteria and it allowed distinguishing experts from paediatric internal residents. No statistically significant differences were found concerning age, gender, type and duration of the training received in Primary Care, and the completion of a course on that training.

Conclusions

We developed an SCT that was approved by a Paediatric Experts Committee, it met reliability and accessibility criteria and it allowed distinguishing clinical reasoning from experts and paediatric internal residents. Except second year residency program, we did not objectified relevant differences in residency program year, age, gender, duration and realization of Paediatric Primary Care rotation, and training course realisation.

Keywords:
Script concordance test
Pediatric primary care
Medical evaluation
Training course
Clinical reasoning
Texto completo
Introducción

La formación especializada vía MIR (médico interno residente) apenas ha evolucionado en los últimos 30 años1 y es necesario revisarla para adaptarla a las novedades surgidas en el campo formativo y la evaluación.

En España, la formación del pediatra es mayoritariamente hospitalaria2, a pesar de que la organización sanitaria se basa en un modelo de Atención Primaria (AP). La Pediatría de Atención Primaria (PAP) tiene como objetivo fundamental la población infantil en todas sus etapas y por ello la rotación de los residentes en ella es imprescindible para su formación, independientemente del ámbito de su futura labor asistencial3.

No es hasta 2006 cuando el nuevo programa de la especialidad reguló la rotación específica y obligatoria en AP durante 3 meses3; sin embargo, desde diferentes sociedades pediátricas se ha solicitado que se alargue hasta completar 12 meses, pudiendo así contrarrestar la formación casi exclusiva hospitalaria4. Dicha petición debe ir asociada a una autoevaluación permanente del sistema MIR que permita detectar áreas susceptibles de mejora y adaptar dicha formación a la situación actual de la PAP1.

El proceso formativo de los profesionales médicos se basa en la adquisición de conocimiento teórico, habilidades profesionales y razonamiento clínico, siendo los dos últimos aspectos adquiridos durante el posgrado. Típicamente la evaluación del posgrado se ha basado exclusivamente en la evaluación mediante exámenes, como el test de elección múltiple, junto con la opinión subjetiva de los evaluadores5, evaluando la información fuera de contexto y sin representar adecuadamente la práctica clínica real.

Actualmente, nuevas metodologías como el script concordance test (SCT) evalúan adecuadamente de forma objetiva el razonamiento clínico, ya que proveen hipótesis a los sujetos evaluados y guían la recolección de información y la toma de decisiones, usando la información recogida para confirmar o rechazar dichas hipótesis5, de forma similar a la práctica clínica habitual.

Las características de este tipo de cuestionario se basan en una hipótesis que sugiere que el conocimiento estructurado está conformado por una compleja red de conexiones mentales que interrelacionan diferentes situaciones clínicas y permiten a los profesionales solventar problemas de su práctica clínica. Por ello, los profesionales más experimentados no serían aquellos que acumulan mayor cantidad de conocimientos, sino aquellos cuya red de interrelaciones mentales es más rica5.

El SCT presenta un caso clínico (fig. 1), define las hipótesis que el profesional puede plantearse sobre los signos y síntomas que el paciente presentará, y finalmente proporciona una información añadida. Cuando el profesional recibe dicha información debe decidir cómo encaja con el caso clínico inicial y la hipótesis planteada posteriormente: confirmarla, rechazarla o no verse afectada por ella, en una escala Likert de 5 puntos5.

Figura 1.

Ejemplo de un caso clínico en un SCT5.

(0,3MB).

Varios estudios con SCT muestran como la experiencia del profesional, medida exclusivamente como número de años de trabajo, no se asocia con un mejor razonamiento clínico si dicha experiencia no va asociada con un incremento en la práctica clínica que queremos evaluar (por ejemplo, número de cirugías practicadas, en el caso de Ginecología)6 o del reciclaje formativo en dicha disciplina (realización de cursos, en el caso de Cardiología Pediátrica)5. Esto indica que la experiencia del profesional reduciría el razonamiento clínico si no se acompaña de ambos elementos.

Además, existe evidencia sobre la pérdida de conocimiento a lo largo del tiempo, la llamada curva del olvido, una función que muestra una reducción logarítmica en la memoria de retención dependiendo del tiempo transcurrido7. Actualmente muchos programas formativos se centran en la importancia de luchar contra ella mejorando la retención a largo plazo mediante el reciclaje formativo de los profesionales8. Los conocimientos, como base del razonamiento clínico, si se encuentran en constante actualización, permiten luchar contra la curva del olvido, y así, de forma indirecta, influir positivamente en el razonamiento clínico de los profesionales.

Hasta ahora, el SCT se ha aplicado en diversas especialidades para evaluar el razonamiento clínico, sin embargo, son pocos los estudios en el ámbito pediátrico, y ninguno en España que incluya contenidos propios de PAP, a pesar de que en AP es donde se resuelve más del 90% de la patología pediátrica y es donde ejercen su labor profesional casi el 80% de los residentes que terminan su formación MIR2.

Por esta razón consideramos relevante diseñar un SCT de PAP que, como objetivos principales, cumpla los criterios de validez de contenido y criterio, fiabilidad y aceptabilidad descritos en la bibliografía. Nuestro estudio permitirá a su vez analizar:

  • si los residentes tienen suficiencia razonamiento clínico en conocimientos de PAP para la práctica clínica;

  • si el año de residencia dentro del programa MIR influye en la puntuación obtenida;

  • si los años de experiencia en PAP de los expertos influyeron en la puntuación obtenida;

  • si existe conexión entre la realización y longitud de la rotación en PAP y la puntuación obtenida;

  • si el género y la edad de los residentes influyen en la puntuación obtenida;

  • si la realización de un curso de PAP es suficiente para mejorar los resultados obtenidos.

Métodos

El primer autor desarrolló un SCT de 115 preguntas, siguiendo las normas de construcción9 y utilizando motivos de consulta frecuentes de las consultas de PAP y bibliografía sobre la formación en PAP10.

La validación del cuestionario, cuyo proceso es esquematizado en la figura 2, se inicia con la corrección por parte de 5 expertos en PAP (6 o más años de experiencia), que corrigieron las preguntas y seleccionaron aquellas que obtuvieron el 80% de aprobación por su parte (criterio de jueces11), reduciendo la extensión del cuestionario a 105 preguntas.

Figura 2.

Diagrama de las fases de construcción, validación, implantación y análisis psicométrico del cuestionario SCT.

(0,23MB).

Para crear el panel de expertos, el test fue administrado on line con Google Form (disponible en https://www.google.es/intl/es/forms/about/) a diversas sociedades y foros pediátricos. Se recibieron 45 cuestionarios, superando así ampliamente las publicaciones pediátricas previas12,13.

Se recogieron además de estos el género, la edad y los años de experiencia laboral en PAP. El panel de puntuación fue creado con las respuestas del panel de expertos, eliminándose las preguntas no discriminativas (varianzas extremas, unanimidad en respuestas o respuestas repartidas homogéneamente), reduciéndose el cuestionario final a 67 preguntas.

Finalmente, el SCT definitivo fue remitido a 1.750 residentes de las unidades docentes de Pediatría de España, recogiéndose 102 cuestionarios (tasa de respuesta del 5,8%).

La superación del cuestionario se basó en el criterio de Duggan de clasificar a los sujetos en función de la puntuación obtenida, medida en desviaciones estándar (DE) respecto a la media obtenida por el panel de expertos, estableciendo las 4DE como punto de corte14.

En cada cuestionario se recogieron estas variables: año formativo MIR, edad, género, rotación o no en PAP, duración de dicha rotación (<1mes, 1-3meses, >3meses), y realización o no de un curso de contenidos de PAP.

La t de Student fue usada para la comparación de medias y el análisis de varianza de una vía (ANOVA) fue empleado para comparar más de 2 medias. La relación entre variables numéricas se estudió gráficamente y mediante regresión lineal. Todas las comparaciones estadísticas fueron llevadas a cabo usando un test bilateral con un nivel de significación de p=0,05, siendo todo procesado con Stata 14.2 software©.

Las propiedades psicométricas del cuestionario analizadas fueron validez, fiabilidad (mediante el alfa de Cronbach15) y aceptabilidad.

Resultados

Respecto a la validez, las 67 preguntas del cuestionario cumplieron con el criterio de jueces (superación del 80% de aprobación) y permitieron confirmar la hipótesis inicial del nivel formativo: los expertos obtendrían una puntuación superior a los residentes; y el cuestionario, por tanto, permitiría discriminar entre ambos.

En relación con la fiabilidad, el coeficiente de Cronbach obtuvo un valor de 0,74 para los residentes.

Cinco residentes (4,9%) no superaron el cuestionario según el criterio de Duggan (4DE). Dos expertos fueron eliminados del análisis por no superar el valor 50 en la puntuación (49,4 y 46,1).

Los expertos (N=43) obtuvieron una puntuación media de 77,3 (DE=5,4), superior a la media 71,7 (DE=7,8) en los N=102 residentes (p<0,00005). Esta diferencia con los expertos se concretó para los R1 (p<0,00005), R3 (p<0,001) y R4 (p<0,011), pero no para los R2 (p=0,078). Los residentes R2 fueron los que obtuvieron la mayor puntuación media (tabla 1 y fig. 3), con 4,5 puntos por encima de los R1 (p=0,0287, IC95% [0,5; 8,5]). Las diferencias con R3 y R4 no resultaron estadísticamente significativas.

Tabla 1.

Medidas de tendencia central y dispersión de las puntuaciones obtenidas por los residentes

  Media  DE 
Año de residencia
R1  25  69,6  6,1 
R2  21  74,1  7,2 
R3  32  71,9  7,5 
R4  24  71,4  10 
Sexo
Hombre  24  70,1  9,2 
Mujer  78  72,1  7,3 
Rotación PAP
Sí  78  72,4  8,1 
No  24  69,3  6,3 
Duración de Rotación
1 mes  15  73,8  8,2 
1-3 meses  56  72,5 
>3 meses  68,8  15 
Curso PAP
Sí  55  71,7  9,5 
No  47  71,7  5,4 

DE: desviaciones estándar; PAP: Pediatría de Atención Primaria.

Figura 3.

Diagrama de caja-bigote de la puntuación en los expertos y según año de residencia: (R1=Residentes de primer año; R2=Residentes de segundo año; R3=Residentes de tercer año; R4=Residentes de cuarto año).

(0,08MB).

La figura 4 no evidencia relación entre los años de experiencia en PAP de los expertos y la puntuación obtenida (p=0,1).

Figura 4.

Diagrama de dispersión con la distribución de los expertos evaluados en función de su puntuación obtenida y los años de experiencia en PAP.

(0,08MB).

No se observaron diferencias estadísticamente significativas en la puntuación entre hombres y mujeres residentes (p=0,331). La relación entre la edad y la puntuación no resultó estadísticamente significativa (p=0,5753) (fig. 5).

Figura 5.

Diagrama de dispersión con la distribución de los residentes evaluados en función de su puntuación obtenida y su edad.

(0,08MB).

En relación con la rotación en PAP (fig. 6), no se obtuvieron diferencias significativas en las puntuaciones medias obtenidas a favor de aquellos sujetos que rotaron (p=0,058). Tampoco se obtuvieron diferencias significativas al comparar los 3 periodos de duración de la rotación en PAP (p=0,4089).

Figura 6.

Diagrama caja-bigotes con las medidas de tendencia central y dispersión de las puntuaciones obtenidas por los residentes de pediatría en función de la realización de rotación en PAP.

(0,07MB).

Respecto a la realización de un curso de PAP (fig. 7), al comparar la puntuación media obtenida por los residentes, no se obtuvieron diferencias significativas a favor de aquellos que habían completado un curso (p=0,995).

Figura 7.

Diagrama caja-bigotes con las medidas de tendencia central y dispersión de las puntuaciones obtenidas por los residentes de pediatría en función de la realización de un curso de PAP.

(0,06MB).
Discusión

Un cuestionario SCT de 67 preguntas fue creado cumpliendo con los criterios de validez, ya que el razonamiento clínico fue mayor en los expertos respecto del conjunto de residentes como en los siguientes trabajos13,16–21.

Respecto a la fiabilidad, la consistencia interna calculada fue de 0,74 puntos, por lo cual resultó adecuada al superar el valor mínimo de 0,7 descrito en la bibliografía22.

Consideramos que se hubiera podido incrementar la fiabilidad incrementando la longitud del cuestionario, pero esto probablemente hubiera afectado negativamente al tamaño muestral. Pese a ello, nuestra muestra de 102 cuestionarios permitió alcanzar los objetivos de validez del cuestionario, y solamente ha sido superado por un trabajo con 268 cuestionarios, aunque todos del mismo año de residencia23.

La aceptabilidad (construcción, puntuación, corrección codificación e interpretación del cuestionario) fue acorde a lo descrito en la bibliografía.

El porcentaje de residentes que no superaron el cuestionario (4,9%) fue muy similar al descrito por Duggan (3%)14 y a la mayoría de estudios6,24–27, por lo que consideramos que el dintel utilizado para fijar el aprobado fue adecuado, y permitió detectar correctamente a aquellos sujetos con razonamiento clínico deficitario.

Como se esperaba, dependiendo del nivel formativo de los sujetos evaluados, las puntuaciones fueron más altas en el grupo de expertos respecto a los residentes. Estas diferencias coincidieron con multitud de trabajos publicados12–14,28–34, lo que confirmaría la correcta construcción del cuestionario.

Sin embargo, no se objetivó incremento de la puntuación obtenida según se avanzaba en el año formativo MIR. Este resultado coincidió con lo obtenido en los trabajos de Power et al.18 y Steinberg et al.35, donde tampoco se observó un aumento de la puntación según se ascendía en el año de residencia, y fue contrario a lo observado en dos trabajos donde se evaluó también a residentes de Pediatría12,13.

Si bien podría esperarse que los R4 hubieran obtenido la mayor puntuación, al ser los residentes, en teoría, mejor formados, lo cierto es que fueron los R2 los que obtuvieron la mayor puntuación.

La mayor puntuación obtenida por los R2 pensamos que podría explicarse por dos aspectos: el primero, el haber superado el primer año de residencia, punto de partida formativo; y el segundo, el hecho de que durante el primer año de residencia se llevan a cabo rotaciones donde se manejan conocimientos más relacionados con el razonamiento clínico en PAP, como los de las secciones de Urgencias o Neonatología.

La ausencia de diferencias significativas al comparar a los R2, R3 y R4 entre sí también fue observada en los trabajos de Power et al.18 y Steinberg et al.35 y apoyaría la idea de que esta herramienta no sería útil para discriminar a los residentes entre sí, sino para comparar a los adjuntos ya formados y a los residentes en formación.

Al contrario que lo observado en los trabajos de Rajapreyar et al.31 y Kazour et al.36, donde las puntuaciones disminuían según se incrementaba la experiencia del sujeto, o si este no se había reciclado formativamente5, en nuestro caso no se observó relación entre los años de experiencia en PAP de los expertos y la puntuación obtenida en el cuestionario.

Consideramos que, al ser una disciplina tan amplia, sería muy poco frecuente que el experto evaluado no hubiera realizado al menos un curso formativo sobre conocimientos de PAP durante su experiencia laboral. Sobre todo, si tenemos en cuenta que la muestra de expertos provenía de pediatras pertenecientes a varias sociedades y/o foros de pediatría, que promueven el reciclaje formativo. Esto podría suponer un sesgo de selección y así justificar que dicha puntuación no disminuyese con la edad, ya que estos sujetos podrían haber realizado más cursos, y, por tanto, encontrarse más sujetos reciclados desde el punto de vista formativo, aunque dicha variable no fuese recogida en este trabajo.

No se observaron diferencias en las puntuaciones obtenidas en función del género, presentando nuestra muestra, con un 76,4% de mujeres residentes, una distribución por género acorde con lo descrito en la bibliografía actual1.

En relación con la rotación en PAP, no se observaron diferencias estadísticamente significativas en las puntuaciones. Estos resultados coinciden con lo expuesto en el trabajo de Peyrony et al.37. Sin embargo, otros autores sí obtuvieron diferencias significativas en las puntuaciones tras haber rotado36,38,39.

Las comparaciones de la puntuación entre expertos y residentes, entre residentes, así como entre periodos de rotación en PAP, fueron también realizadas utilizando la prueba U de Mann-Whitney y la de Kruskal-Wallis, obteniendo las mismas conclusiones.

A la vista de estos trabajos consideramos que una variable que ha podido influir en nuestros resultados es la actual duración de 3 meses de la rotación en PAP, la cual podría resultar insuficiente para generar una mejora en el razonamiento clínico, precisando de una mayor duración, como reclaman los propios pediatras2 para mejorar los resultados obtenidos y obtener así diferencias significativas, lo que se apoyaría en otros trabajos5,36,38.

La ausencia de diferencias significativas a favor de aquellos sujetos que realizaron un curso de AP iría en contra de lo expuesto en varios trabajos del ámbito de la Medicina familiar, Pediatría o Farmacia5,40,41.

Pensamos que una de las hipótesis que podría explicar este hecho es que no se cuantificó el número de cursos de reciclaje realizados sino solamente si se había realizado alguno. Consideramos que este hecho ha podido dificultar el poder discriminar entre aquellos más reciclados formativamente y aquellos que no, y por ello el resultado obtenido.

La hipótesis de que es necesaria la realización de varios cursos para mejorar el razonamiento clínico, y con ello la puntuación obtenida en el cuestionario, reforzaría la importancia del reciclaje formativo, en contraposición a la suma de años de práctica pediátrica5,31,42 como se mencionó en la introducción. Además, el desarrollo de este reciclaje formativo, focalizado en los déficits formativos de los profesionales, garantizaría la calidad de la práctica asistencial y permitiría satisfacer las demandas de la población con mayor eficiencia. Aunque no muchos trabajos analizaron esta variable, sí se objetivó un importante incremento de las puntaciones obtenidas tras completar cursos formativos5,40,41.

Como limitaciones de nuestro estudio, observamos, por un lado, la imposibilidad de cubrir con el SCT todos los contenidos de nuestra especialidad, ya que la excesiva longitud del cuestionario hubiese limitado más el tamaño muestral. Pensamos también que la baja tasa de respuesta puede deberse al recelo de algunos residentes a responder a las preguntas por su falta de adecuado razonamiento clínico y que por eso rechazaron la participación, limitando así el tamaño muestral y pudiendo generar una muestra no homogénea, de modo que la fiabilidad, aun siendo adecuada, no haya sido superior. Consideramos que la realización del cuestionario de forma presencial, supervisada y con limitación temporal podría incrementar el tamaño muestral.

Por ello, concluimos que nuestro SCT podría ser una herramienta útil para la evaluación y reciclaje formativo de los residentes. Con la creación de esta prueba no pretendemos sustituir sino complementar la evaluación del residente, ayudando al tutor y a los responsables institucionales de la formación de los MIR a evaluar a los residentes de forma completa y objetiva, por lo que planteamos su incorporación por los gestores sanitarios en las diferentes fases del proceso formativo pediátrico para su evaluación.

Creemos que, si el SCT se realizara de forma presencial, supervisada y obligatoria como parte del proceso formativo del residente, con limitación temporal, y optimizando su contenido y longitud para incrementar el tamaño muestral y su consistencia interna, podría ayudar a mejorar considerablemente la asistencia pediátrica.

Conclusiones

Se construyó un SCT con 67 preguntas que fue aprobado por un comité de expertos, distinguió según el grado formativo de los sujetos evaluados, cumplió con los criterios de fiabilidad y accesibilidad, permitió detectar si los profesionales evaluados disponían del adecuado razonamiento clínico en PAP y si existían diferencias en dicho razonamiento entre adjuntos y residentes.

Excepto en el 2.o año de residencia, no se observaron diferencias estadísticamente significativas respecto al año formativo dentro de la residencia, la edad, el género, la realización y duración de la rotación en AP y la realización de un curso sobre dicha formación.

Con el análisis de los parámetros recogidos podemos concluir que este SCT podría ser una herramienta útil para la evaluación del razonamiento clínico suficiente en conocimientos de PAP en residentes.

Conflicto de intereses

Los autores declaran no tener ningún conflicto de intereses.

Bibliografía
[1]
J. González de Dios, I. Polanco Allue, C.A. Díaz Vázquez.
De las facultades de Medicina a la residencia de Pediatría, pasando por el examen de médico interno residente: ¿algo debe cambiar? Resultados de una encuesta en residentes de Pediatría de cuarto año.
An Pediatr (Barc)., 70 (2009), pp. 467-476
[2]
J.M. García Puga, C. Villazán Pérez, B. Domínguez Aurrecoechea, R. Ugarte Líbano.
¿Qué opinan pediatras y residentes de Pediatría sobre la rotación por Atención Primaria?.
An Pediatría (Barc)., 70 (2009), pp. 460-466
[3]
B. Domínguez Aurrecoechea, C. Valdivia Jiménez.
La pediatría de atención primaria en el sistema público de salud del siglo XXI. Informe SESPAS 2012.
Gac Sanit., 26 (2012), pp. 82-87
[4]
P. Gorrotxategi Gorrotxategui, C. García Vera, A. Graffigna Lojendio, C. Sánchez Pina, N. Palomino Urda, C.R. Rodríguez Fernández-Oliva.
Situación de la Pediatría de Atención Primaria en España en 2018.
Rev Pediatr Aten Primaria., 20 (2018), pp. 89-104
[5]
C. Iglesias Gómez, O. González Sequeros, G. Sarquella Brugada, M.L. Padilla del Rey, D. Salmerón Martínez.
Usefulness of SCT in detecting clinical reasoning deficits among pediatric professionals.
Prog Pediatr Cardiol., 61 (2021), pp. 101340
[6]
N. Kow, M.D. Walters, M.M. Karram, C.J. Sarsotti, J.E. Jelovsek.
Assessing intraoperative judgment using script concordance testing through the gynecology continuum of practice.
Med Teach., 36 (2014), pp. 724-729
[7]
J.M.J. Murre, J. Dros.
Replication and Analysis of Ebbinghaus’ Forgetting Curve.
PLoS One., 10 (2015), pp. e0120644
[8]
B.P. Kerfoot, Y. Fu, H. Baker, D. Connelly, M.L. Ritchey, E.M. Genega.
Online spaced education generates transfer and improves long-term retention of diagnostic skills: a randomized controlled trial.
J Am Coll Surg., 211 (2010), pp. 331-337
[9]
J.P. Fournier, A. Demeester, B. Charlin.
Script concordance tests: guidelines for construction.
BMC Med Inform Decis Mak., 8 (2008), pp. 18
[10]
Grupo Docencia Mir.
Programa de formación. Área de capacitación específica en Pediatría de Atención Primaria [Internet]. Asociación Española de Pediatría de Atención Primaria;, (2010),
[11]
L.M. Escurra Mayaute.
Cuantificación de la validez de contenido por criterio de jueces.
Rev Psicol., 6 (1988), pp. 103-111
[12]
S. Cooke, J.-F. Lemay, T. Beran, A. Sandhu, H. Amin.
Development of a method to measure clinical reasoning in pediatric residents: The Pediatric Script Concordance Test.
Creat Educ., 7 (2016), pp. 814-823
[13]
B. Carrière, R. Gagnon, B. Charlin, S. Downing, G. Bordage.
Assessing clinical reasoning in pediatric emergency medicine: validity evidence for a script concordance test.
Ann Emerg Med., 53 (2009), pp. 647-652
[14]
P. Duggan, B. Charlin.
Summative assessment of 5th year medical students’ clinical reasoning by script concordance test: requirements and challenges.
BMC Med Educ., 12 (2012), pp. 29
[15]
D. Frías Navarro.
Análisis de fiabilidad de las puntuaciones de un instrumento de medida Alfa de Cronbach: un coeficiente de fiabilidad.
Apuntes de SPSS, Universidad de Valencia, (2014), pp. 10
[16]
C. Brailovsky, B. Charlin, S. Beausoleil, S. Cote, C. van der Vleuten.
Measurement of clinical reflective capacity early in training as a predictor of clinical reasoning performance at the end of residency: an experimental study on the script concordance test.
[17]
L. Brazeau-Lamontagne, B. Charlin, R. Gagnon, L. Samson.
Measurement of perception and interpretation skills during radiology training: utility of the script concordance approach.
Med Teach., 26 (2004), pp. 326-332
[18]
A. Power, J.-F. Lemay, S. Cooke.
Justify your answer: the role of written think aloud in script concordance testing.
Teach Learn Med., 29 (2017), pp. 59-67
[19]
A.J. Park, M.D. Barber, A.E. Bent, Y.T. Dooley, C. Dancz, G. Sutkin, et al.
Assessment of intraoperative judgment during gynecologic surgery using the Script Concordance Test.
Am J Obstet Gynecol., 203 (2010), pp. 1-6
[20]
J.G. Ruiz, R. Tunuguntla, B. Charlin, J.G. Ouslander, S.N. Symes, R. Gagnon, et al.
The Script Concordance Test as a measure of clinical reasoning skills in geriatric urinary incontinence.
Am Geriatr Soc., 58 (2010), pp. 2178-2184
[21]
L. Sibert, S.J. Darmoni, B. Dahamna, F. Hellot, J. Weber, B. Charlin.
On line clinical reasoning assessment with Script Concordance test in urology: results of a French pilot study.
BMC Med Educ., 6 (2006), pp. 45
[22]
S. Lubarsky, B. Charlin, D.A. Cook, C. Chalk, C.P.M. van der Vleuten.
Script concordance testing: a review of published validity evidence: Validity evidence for script concordance tests.
[23]
M. Hamui, J.P. Ferreira, M. Torrents, F. Torres, M. Ibarra, M.F. Ossorio, et al.
Prueba de concordancia de script: primera experiencia en pediatría de alcance nacional.
Arch Argent Pediatr [Internet]., 116 (2018),
[24]
S. Nseir, A. Elkalioubie, P. Deruelle, D. Lacroix, D. Gosset.
Accuracy of script concordance tests in fourth-year medical students.
Int J Med Educ., 8 (2017), pp. 63-69
[25]
F. Goulet, A. Jacques, R. Gagnon, B. Charlin, A. Shabah.
Poorly performing physicians: Does the script concordance test detect bad clinical reasoning?.
J Contin Educ Health Prof., 30 (2010), pp. 161-166
[26]
I. Irfannuddin.
Knowledge and critical thinking skills increase clinical reasoning ability in urogenital disorders: a Universitas Sriwijaya Medical Faculty experience.
Med J Indones., 18 (2009), pp. 53
[27]
R.D. Piovezan, N.A. Batista, S. Lubarsky, B. Charlin.
Assessment of undergraduate clinical reasoning in geriatric medicine: application of a script concordance test.
J Am Geriatr Soc., 60 (2012), pp. 1946-1950
[28]
S. Lubarsky, S. Durning, B. Charlin.
AM last page. The script concordance test: a tool for assessing clinical data interpretation under conditions of uncertainty.
[29]
C. Faucher, M. Dufour-guindon, G. Lapointe, R. Gagnon, B. Charlin.
Assessing clinical reasoning in optometry using the script concordance test.
Clin Exp Optom., 99 (2016), pp. 280-286
[30]
A.J. Humbert, M.T. Johnson, E. Miech, F. Friedberg, J.A. Grackin, P.A. Seidman.
Assessment of clinical reasoning: A Script Concordance test designed for pre-clinical medical students.
Med Teach., 33 (2011), pp. 472-477
[31]
P. Rajapreyar, K. Marcdante, L. Zhang, P. Simpson, M.T. Meyer.
Decision-making in pediatric transport team dispatch using script concordance testing.
Pediatr Crit Care Med., 18 (2017), pp. e530-e535
[32]
N.O. Chime, M.V. Pusic, M. Auerbach, R. Mehta, D.J. Scherzer, W.V. Ittersum, et al.
Script concordance testing to determine infant lumbar puncture practice variation.
Pediatr Emerg Care., 34 (2018), pp. 84-92
[33]
B. Charlin, R. Gagnon, S. Lubarsky, C. Lambert, S. Meterissian, C. Chalk, et al.
Assessment in the context of uncertainty using the script concordance test: more meaning for scores.
Teach Learn Med., 22 (2010), pp. 180-186
[34]
M. Talvard, J.-P. Olives, E. Mas.
Évaluation des étudiants en médecine lors de leur stage en gastro-entérologie pédiatrique par un test de concordance de script.
Arch Pédiatrie., 21 (2014), pp. 372-376
[35]
E. Steinberg, E. Cowan, M.P. Lin, A. Sielicki, S. Warrington.
Assessment of emergency medicine residents’ clinical reasoning: validation of a script concordance test.
West J Emerg Med., 21 (2020), pp. 978-7984
[36]
F. Kazour, S. Richa, M. Zoghbi, W. El-Hage, F.G. Haddad.
Using the script concordance test to evaluate clinical reasoning skills in psychiatry.
Acad Psychiatry., 41 (2017), pp. 86-90
[37]
O. Peyrony, A. Hutin, J. Truchot, R. Borie, D. Calvet, A. Albaladejo, et al.
Impact of panelists’ experience on script concordance test scores of medical students.
BMC Med Educ., 20 (2020), pp. 313
[38]
C. Lambert, R. Gagnon, D. Nguyen, B. Charlin.
The script concordance test in radiation oncology: validation study of a new tool to assess clinical reasoning.
Radiat Oncol., 4 (2009), pp. 7
[39]
D. Piquette, A. Goffi, C. Lee, R. Brydges, C.M. Walsh, B. Mema, et al.
Resident competencies before and after short intensive care unit rotations: a multicentre pilot observational study.
Can J Anesth., 68 (2021), pp. 235-244
[40]
P. Olszynski, J. Anderson, K. Trinder, T. Domes.
Point-of-care ultrasound in undergraduate urology education: a prospective control-intervention study: point-of-care ultrasound in urology education.
J Ultrasound Med., 37 (2018), pp. 2209-2213
[41]
R.S. Atayee, K. Lockman, C. Brock, D.T. Abazia, T.L. Brooks, J. Pawasauskas, et al.
Multicentered study evaluating pharmacy students’ perception of palliative care and clinical reasoning using script concordance testing.
Am J Hosp Palliat Med., 35 (2018), pp. 1394-1401
[42]
S. Dufour, S. Latour, Y. Chicoine, G. Fecteau, S. Forget, J. Moreau.
Use of the script concordance approach to evaluate clinical reasoning in food-ruminant practitioners.
J Vet Med Educ., 39 (2012), pp. 267-275
Copyright © 2021. Asociación Española de Pediatría
Idiomas
Anales de Pediatría
Opciones de artículo
Herramientas
es en

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?