Compartir
Publique en esta revista
Información de la revista
Vol. 24. Núm. 5.Septiembre - Octubre 2013Páginas 191-236
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Vol. 24. Núm. 5.Septiembre - Octubre 2013Páginas 191-236
Editorial
DOI: 10.1016/j.neucir.2013.08.001
Consideraciones sobre el diseño de un nuevo programa de residencia basado en competencias y la necesidad de combinarlo con el modelo clásico de enseñanza-aprendizaje
Considerations on the design of a new competency-based resident programme and the need to combine it with the classic teaching-learning model
Visitas
3232
Ramiro D. Lobato??
Autor para correspondencia
ramirodiezlobato@gmail.com

Autor para correspondencia.
, Alfonso Lagares, Jose F. Alén
Servicio de Neurocirugía, Hospital 12 de Octubre, Universidad Complutense de Madrid, Madrid, España
Visitas
3232
Información del artículo
Texto Completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (1)
Tablas (3)
Tabla 1. Comparación de los programas educativos basados en estructura-proceso (modelo convencional o clásico) frente al basado en competencias
Tabla 2. Educación médica basada en competencias
Tabla 3. Competencias generales mayores o dominios preconizados por la Accreditation Council for Graduate Medical Education
Mostrar másMostrar menos
Texto Completo

Recientemente las autoridades ministeriales han solicitado, a través de la Comisión Nacional de la Especialidad, la elaboración de un nuevo programa de residencia en Neurocirugía basado en competencias. Por ello, la Junta Directiva de la SENEC ha encargado a un grupo de neurocirujanos (R. D. Lobato, A. Lagares, J. F. Alén, J. Orduna, J. Ibañez, M. Brell), y otros miembros de la Comisión Nacional, la elaboración de un programa orientado sobre este nuevo paradigma educativo aplicado ya en EE. UU. y otros países, que tras ser presentado a los miembros de nuestra sociedad para valoración y crítica, será remitido a las autoridades competentes por el actual presidente de la SENEC y de la Comisión Nacional. El consenso final acerca de la estructura e implementación del programa incluirá la valoración por los residentes y un debate que se llevará a cabo en una sesión del curso formativo anual organizado por la SENEC a impartir en septiembre de 2013.

Con la intención de mejorar el conocimiento general de los miembros de la SENEC sobre el nuevo paradigma educativo de la enseñanza médica basada en competencias se publica este editorial en la web de la SENEC y la revista Neurocirugía, que incluye una figura que muestra los métodos de evaluación del conocimiento y la competencia (fig. 1), y 3 tablas que reflejan las diferencias entre el modelo clásico de enseñanza basado en la estructura o proceso, y el basado en competencias (tabla 1), las definiciones de competencia y competence-based medical education (CBME) proporcionadas por un grupo de trabajo líder en este campo (tabla 2), y la definición simplificada de las competencias mayores o dominios aportada por la ACGME para la enseñanza del posgrado y del pregrado en EE. UU. (tabla 3). La referencia a un mapa de dominios competenciales (sean los de la ACGME, la CanMEDs, el GMC inglés o el IMO americano) resulta imprescindible para guiar la instrucción y la evaluación de los residentes y para monitorizar el funcionamiento de un programa basado en competencias.

Figura 1.
(0,18MB).

La evaluación en el currículo de medicina y la pirámide de Miller. Los escalones de la pirámide incluyen desde los 2 más básicos (campo cognitivo), que se relacionan con la adquisición de conocimientos y la aplicación de los mismos en el contexto clínico («Saber» y «Saber cómo», respectivamente), a los 2 superiores, que estiman la competencia clínica (campo de actuación) del estudiante, el residente y el profesional que trabaja de manera autónoma («Mostrar cómo» y «Hacer»). Los instrumentos de evaluación del conocimiento y la competencia clínica difieren en cada escalón. El portafolio docente puede servir para almacenar datos sobre las actividades y los resultados de las evaluaciones del estudiante (log-book), y también como guía para la interacción con los supervisores docentes y la reflexión personal en el proceso de autoaprendizaje.

Tabla 1.

Comparación de los programas educativos basados en estructura-proceso (modelo convencional o clásico) frente al basado en competencias

Variables  Programas de educación en el pregrado y el posgrado
  Basados en estructura-proceso  Basados en competencias 
Principio que mueve el currículo  Adquisición de conocimientos basados en contenidos  Resultado: adquisición de competencias 
Fuerza que mueve el proceso  Profesor  Alumno 
Senda de aprendizaje  Jerárquica (profesor-alumno)  Estudiante y profesor 
Responsabilidad sobre el contenido  Estudiante  Estudiante y profesor 
Objetivo del encuentro educativo  Adquisición de conocimiento  Aplicación del conocimiento 
Herramienta típica de evaluación  Medida aislada subjetiva  Medidas múltiples objetivas y estructuradas (incluidas o no en el portafolio) 
Herramienta de evaluación  Por similitud o proximidad  Auténtica (imita las tareas realizadas en el contexto clínico propias de la profesión) 
Situación de evaluación  Desde la distancia (Gestalt)  Observación directa en la «trinchera» clínica 
Evaluación  Referenciada a norma: compara un alumno frente a otro  Referenciada a criterio: nivel de ejecución frente a un estándar 
Momento de la evaluación  Énfasis en lo sumativo  Énfasis en lo formativo 
Finalización del programa  Tiempo fijo  Tiempo variable 
Tabla 2.

Educación médica basada en competencias

Competencia  Una habilidad observable de un profesional de la salud que integra múltiples componentes tales como conocimientos, habilidades, valores y actitudes 
  La competencia es una cualidad personal, no una acción 
  Los términos competente y competencia deben ser usados como «una habilidad para hacer algo de forma exitosa, satisfactoria» 
  Como las competencias son observables, pueden ser medidas y evaluadas para asegurar su adquisición (así se garantiza la accountability o fiabilidad de un programa o un profesional) 
Currículo médico basado en competencias  Un abordaje basado en resultados al diseño, implementación, valoración y evaluación de los programas de educación médica, usando un marco de trabajo organizado en competencias 

Fuente: Frank et al.1, 2010.

Tabla 3.

Competencias generales mayores o dominios preconizados por la Accreditation Council for Graduate Medical Education

Medical knowledge, Patient care, Interpersonal communication, Professionalism, Practice-based learning and improvement, System-based practice
Conocimiento médico  Conocimiento establecido y nuevo de las ciencias biomédica, clínicas, epidemiológica, sociales y de conducta y aplicación de este conocimiento al cuidado del paciente 
Cuidado del paciente  Cuidado compasivo, apropiado y efectivo para proporcionar tratamiento, y de los problemas de salud y promoción de la salud 
Comunicación y relaciones interpersonales  Intercambio eficaz de la información y trabajo en equipo con el paciente, sus familiares y otros profesionales 
Profesionalismo  Compromiso de asumir las responsabilidades profesionales, adherencia a los principio éticos, y sensibilidad para las diferentes poblaciones de paciente (etnias y culturas) 
Práctica basada en sistemas  Acciones que demuestren conciencia de y respuesta al marco global del sistema de salud y habilidad para recurrir a los recursos del sistema de una manera óptima 
Aprendizaje basado en la práctica clínica  Investigación y evaluación del cuidado que se proporciona al paciente, valoración y asimilación de la evidencia científica y mejoras del cuidado del paciente 

De entrada hemos de aclarar que diferentes autores y publicaciones usan de manera intercambiable los términos «objetivos docentes» y «competencias»; sin embargo, el término competencia conlleva, por definición, la necesidad de evaluar su adquisición final por el estudiante-residente, pues de otro modo pierde todo su sentido; y es que al ser observables, las competencias pueden ser medidas y evaluadas. Dicho de otro modo, no es lo mismo elaborar un programa clásico basado en objetivos más o menos detallados cuyo alcance solo se mide de manera indirecta, o no se mide, que otro basado en competencias que se enuncian como tales para ser evaluadas de una manera más o menos objetiva. Esta diferencia esencial, que exige a los responsables docentes el compromiso explícito de garantizar la evaluación del nivel competencial del residente y del funcionamiento del programa, acarrea la necesidad de constituir un Comité de Programa en el seno de la SENEC que se ocuparía no solo de facilitar la implementación del nuevo programa si este llegara a ser aceptado finalmente, sino también de monitorizar su funcionamiento de acuerdo con una logística a determinar por los miembros de nuestra sociedad. La ausencia de una agencia externa que se ocupe de esta tarea a nivel nacional, tipo ACGME o equivalente, hace imprescindible crear dicho Comité de Programa o una comisión adscrita a una de las Vocalías ya existentes en la SENEC.

La implantación del modelo de enseñanza llamado CBME en su doble vertiente de enseñanza (teaching) y aprendizaje (learning), por un lado, y evaluadora (assessment), por otro lado, es un asunto nuclear en educación médica para el siglo xxi. Este modelo competencial de currículo para el pregrado y el posgrado, que define de entrada qué debe ser capaz de hacer el aprendiz al final de su formación, presiona desde hace casi 2 décadas (aunque sus fuentes y bases reales se remontan a los 70) sobre el modelo clásico o convencional de enseñanza (modelo apprenticeship del see one, do one, teach one), llamado también programme-based o process-based, en el que el estudiante-residente sigue un programa y se atiene a un proceso en el que asimila con mayor o menor éxito diferentes enseñanzas1–3. Que la CBME desplaza a los currículos tradicionales lo demuestra su adopción casi generalizada en los países más avanzados en educación médica, tales como el Reino Unido, los países nórdicos, Holanda, Australia, EE. UU., Canadá y otros, que utilizan desde hace años currículos que incorporan metodologías docentes y evaluadoras nuevas.

Si bien la incorporación y el desarrollo de este nuevo paradigma docente en el pregrado se inició a finales de los 70 (antes del llamado plan Bolonia), su adopción en el posgrado se ha retrasado comparativamente, y ello ha sido así por varias razones, entre las que están la inercia de los sistemas de salud y la resistencia del staff y los docentes de los servicios a abandonar el modelo clásico de apprenticeship, tan arraigado en la formación del residente desde su creación en el Johns Hopkins. No obstante, y ante las presiones del público que exige un control estricto del nivel de competencia de los profesionales médicos, parece insoslayable la adopción de la enseñanza basada en competencias también en el posgrado, y es en este punto donde se produce un intenso debate acerca de cómo implantarla para sustituir al apprenticeship model, que para algunos debe ser mantenido si no ya en su forma clásica, sí combinándolo con el nuevo modelo basado en competencias4–6.

Los movimientos en docencia médica llamados «competenciales», por un lado, y de «autenticidad», por otro, aparecidos en las últimas décadas, exigen no solo definir de entrada las competencias a alcanzar a la hora de construir los currículos o programas, sino que preconizan que estas competencias se persigan, adquieran y evalúen en el contexto clínico, donde el estudiante-residente aborda los problemas clínicos, integra y aplica sus conocimientos, y planifica el estudio personal inspirado por la realidad clínica (autoaprendizaje). Estos paradigmas llevan también implícito el concepto de adquisición longitudinal del nivel de competencia basado en la «continuidad» del proceso educativo, que debe extenderse sin ruptura desde el inicio del pregrado, pasando por el posgrado, hasta la práctica del profesional independiente.

En comparación con la enseñanza en el pregrado, que en muchas escuelas y facultades sigue siendo excesivamente teórica en detrimento de la práctica clínica, la enseñanza en el posgrado tiene la ventaja de basarse tradicionalmente en el trabajo clínico, satisfaciendo así el principio de «autenticidad» en el aprendizaje; sin embargo, la evaluación del residente está lejos de cumplir esta condición porque se basa usualmente en impresiones indirectas o subjetivas del staff del servicio acerca de su capacitación, y no recurre a pruebas o valoraciones objetivas estructuradas aplicadas «en el contexto clínico».

La CBME otorga un papel esencial o «director», e inseparable del propiamente docente, a la evaluación que debe «dirigir el aprendizaje» (assessment drives learning and enhances teaching), empleando instrumentos que capten la capacidad de desempeño (performance) del residente ante el enfermo real, como el Mini-Clinical Evaluation Exercise, o en contextos artificiales recurriendo a simuladores, vídeos y otros recursos (técnicas de in-training assessment)7. Estas técnicas de evaluación clínica objetiva estructurada de la competencia clínica se combinan con tests teóricos que miden la capacitación del candidato para aplicar lo que «sabe» a lo que «hace», es decir, no solo se evalúan los conocimientos (factual data) que posee, sino también su habilidad para aplicarlos a la resolución de los problemas clínicos (preguntas de contextualización clínica para medir el juicio y razonamiento clínico). Todos estos recursos de evaluación combinados o no con el portafolio docente, que «captura» y «ordena» las diferentes actividades del aprendiz y mejora su interacción con el tutor, constituyen la base del abordaje evaluador en el modelo de la CBME que estima la competencia del alumno-residente en diferentes momentos de su trayectoria de aprendizaje (milestones en el modelo del posgrado de la ACGME8). La aplicación de los instrumentos de evaluación se modula teniendo en cuenta las peculiaridades de las diversas etapas del recorrido formativo, desde el inicio del pregrado, pasando por el posgrado, hasta el estuario de la autonomía profesional (Dreyfus).

En cualquier caso, se debe tener en cuenta que para estimar una competencia dada es necesario utilizar más de un instrumento o prueba, y que cada test mide usualmente más de una competencia (por ejemplo, el Mini-Clinical Evaluation Exercise mide 6 o 7 competencias a la vez). Así, se habla de la necesidad de «triangulación» en la evaluación, esto es, la aplicación de varios tests para «captar» una competencia mayor, como es, por ejemplo, el cuidado del paciente, evitando el «reduccionismo» o la «trivialización» que supone atomizar una actuación clínica en sus partes y examinar cada una por separado con un test único, asumiendo después que «la suma de las partes es igual al todo» o, como dice Whitcomb, que la suma de los «ladrillos» –competencias particulares– es igual al edificio o «constructo» que llamamos «competente»6. Esta limitación resulta menos problemática en la evaluación de la competencia en el pregrado, cuando «atomizar» las tareas a evaluar no compromete la fiabilidad de la evaluación, que en las etapas finales del posgrado, cuando «aprehender» o «asir» el verdadero nivel de competencia resulta más difícil, independientemente de la complejidad de la estrategia evaluadora empleada.

No se debe olvidar que para algunos expertos la verdadera competence del residente avanzado o del profesional autónomo solo se puede estimar por sus pares2,4,6. De hecho, uno de los puntos más «calientes» del debate actual en evaluación médica oscila alrededor de la pregunta: ¿La batería de instrumentos de evaluación disponible permite estimar apropiadamente la competencia del residente que transita por las últimas etapas de la residencia? Algunos autores, que cuestionan la aplicabilidad de la CBME tal como se entiende actualmente, creen que la verdadera competencia del residente avanzado y del profesional autónomo es «inasible con tests o pruebas», y piensan que solo se puede medir por otro profesional que les observe directamente y conviva con ellos durante un tiempo suficiente; para ellos, la opción evaluadora «holística» utilizada en el modelo clásico de apprenticeship durante más de medio siglo es suficiente para valorar el progreso y la culminación del aprendizaje, y no debería ser sustituida por otra «reduccionista» que observe los «ladrillos» (competencias particulares) cuya aposición no equivale al edificio (competence).

El problema del modelo apprenticeship, sin embargo, es que la relación supervisor docente-residente es cada vez menos estrecha y continuada, al haberse quebrado la convivencia continuada de ambos (distorsión creciente del coaching y mentoring)9,10. En efecto, la nueva dinámica asistencial, que introduce la restricción del horario laboral del residente y el sistema de turnos en el seguimiento del enfermo, implica no solo una disminución importante del tiempo de permanencia en el hospital y las oportunidades de «contactos» docentes, sino una ruptura repetitiva de la continuidad en el trabajo que fragmenta la observación y la fiabilidad de la información recogida por el supervisor docente acerca de las actuaciones y la capacidad del residente. Hay, además, otros factores, como el aprendizaje a través de la red y la extensión-diversificación de los ámbitos docentes (rotaciones fuera del hospital terciario donde se enclava la unidad docente), que contribuyen a romper esa relación idílica de residente-staff mantenida en décadas pasadas que permitía «evaluar» de manera aparentemente válida al residente a pesar de no emplear instrumentos específicos de medida. Por otra parte, el staff docente sufre presiones crecientes de los gestores para la utilización «más productiva» de su tiempo laboral, amenazando la base de la medicina académica. Así, diferentes estudios han evidenciado que la distorsión de la formación del residente deteriora a su vez seriamente la atención-dedicación docente que este presta a los alumnos del pregrado, quienes, al igual que los propios residentes, sufren «el alejamiento» del staff con compromiso docente.

Precisamente por la aparición de todos estos factores que afectan negativamente a la dinámica docente se hace más necesario controlar con mayor rigor «el producto final» de las instituciones académicas (el estudiante-residente-médico), y cumplir así con las exigencias de accountability (fiabilidad) planteadas por la propia sociedad, que espera que la CBME garantice la calidad tanto del médico que ejerce su oficio, como del docente responsable de educar al estudiante y al residente, exigencia esta que se traslada en cadena a las autoridades que rigen las instituciones con implicación docente (facultades y hospitales con programas de posgrado). Esa demanda de fiabilidad excluye radicalmente la opción evaluadora del modelo docente convencional que mide la adecuación de la formación con métodos siempre indirectos, subjetivos y en gran manera aleatorios, y ha dado pie a la creación de las todopoderosas agencias que regulan la formación médica en los países más avanzados, como la ACGME en EE. UU., que al igual que otras instituciones equivalentes en el Reino Unido, Australia y otros países punteros, tienen la labor de imponer y monitorizar currículos y programas basados en objetivos-competencias.

En los mapas de competencias desarrollados por estas agencias, que se superponen en lo nuclear aunque aparentemente difieran (compárense si no las 6 competencias mayores de la ACGME con los «roles» del médico canadiense CanMEDs, o las enunciadas por el GMC inglés), se definen las llamadas core competencies o roles (ver tabla 3), que a su vez se pueden subdividir en un número relativamente escaso de subcompetencias. En este sentido es interesante comprobar cómo las competencias ACGME, que se crearon en principio para el posgrado, se utilizan para guiar la enseñanza en el pregrado, y cómo la práctica totalidad de las escuelas de medicina en EE. UU. han adoptado ese mapa competencial para llevar a cabo la última y amplia reforma curricular del pregrado en ese país. Lo remarcable es que ya no se concibe seguir enseñando al viejo estilo (enseñanza básicamente teórica, pobremente integrada, y evaluada con tests teóricos en el pregrado, o mediante «impresiones» más o menos indirectas o transmitidas por otros acerca del residente en el posgrado), y es que, polémicas aparte sobre la fiabilidad-validez de los métodos de evaluación, el paradigma de la CBME se ha impuesto ya en los países más avanzados, o está en vías de hacerlo en los restantes, como el nuestro.

Veamos, sin embargo, el «lado oscuro» del modelo CBME. Los detractores de este modelo alegan, entre otras cosas, que viola el concepto de tiempo fijo de permanencia del trainee en el circuito educativo. Utilizando una analogía con el modelo de producción taylorista que compara el programa de residencia con el montaje de coches en una cadena de la Toyota, objetan que los residentes «colocados en la cadena productiva» alcanzarán en tiempos variables, y no fijos, los objetivos docentes del programa; así, y dependiendo de su capacidad-dedicación, unos recorrerán el camino formativo antes que otros, y esa variabilidad distorsionará gravemente la sincronía en la formación del grupo de residentes de un servicio. Al aceptar la variabilidad en el tiempo de formación según la capacidad y entrega de los diferentes residentes, el modelo CBME tiene un contrasentido intrínseco grave, pues al mismo tiempo que preconiza «sistematizar» o estandarizar el proceso de producción de la cadena (formación), exige «individualizar» la enseñanza de cada residente a tenor de su ritmo de «progreso» particular, que puede exigir el rescate del «lento o torpe», un compromiso que si no resulta incluso del todo impracticable, planteará serios problemas a los directores de programa de residencia y a los tutores o responsables docentes directos.

Pero dejando a un lado estas consideraciones, y volviendo a la cuestión nuclear de hasta qué punto la competencia global entendida como «constructo» puede ser medida de manera fiable y válida con unos u otros instrumentos y recurriendo o no a la «triangulación» a la hora de administrarlos, debemos preguntarnos si existen alternativas evaluadoras que permitan combinar estas nuevas técnicas de medición de la competencia con los métodos tradicionales de valoración subjetiva que resultan más familiares para los staffs de los servicios en los que actualmente trabajamos. Pues bien, Ten Cate et al.5, que pertenecen a uno de los grupos más prestigiados y pioneros en evaluación médica, han generado y aplicado un sistema para eludir el problema de la atomización y parcialidad a la hora de medir la competencia del residente. En esencia, estos autores admiten que la evaluación debe medir irrenunciablemente «piezas» concretas y objetivas de la actividad clínica o competencia (del «saber hacer» del residente), pero al mismo tiempo exigen que la evaluación de estas piezas se haga de una manera «holística» por un supervisor docente dedicado y en el contexto clínico real, es decir, allí donde él mismo y el residente trabajan e interactúan a diario; además, se exige que la evaluación de una tarea dada –por ejemplo, asistencia a un parto complicado en Ginecología– se haga más de una vez, ya que todos y cada uno de los partos a los que puede asistir el residente van a tener «algo distinto ligado al contexto o la hora del día».

Así, solo cuando el supervisor ha comprobado que el residente alcanza un nivel de pericia que le capacita para realizar de manera competente una actividad clínica concreta y predefinida en un mapa que engloba todos los contenidos operacionales de la especialidad, le otorga de manera formal, pero sin ninguna ceremonia especial, la «confianza» de que es competente para realizarla en el futuro. A esta decisión o acto lo llaman Ten Cate et al. statement of awarded responsibility (STAR), y con ese «otorgamiento» o awarding se concede al residente el nivel exigido de competencia para asumir la actividad de que se trate, y a cada una de las actividades o tareas susceptibles de serle otorgado un STAR las llaman entrustable professional activity (EPA); así, un residente de Ginecología ha de recibir los STAR de las aproximadamente 70 EPA que constituyen, agrupadas, el cuerpo de doctrina de esa especialidad en Holanda. En nuestro país correspondería a las Comisiones Nacionales definir el mapa de EPA de su especialidad.

Aparte de combinar los principios básicos del modelo CBME de definición precisa de los objetivos docentes o las actividades clínicas a alcanzar y dominar (EPA en este caso), por un lado, y de la necesidad de que sea el profesional docente (staff responsable o tutor) quien realice o asuma la evaluación, Ten Cate et al. aclaran cómo su sistema permite abordar la otra gran exigencia, formal si se quiere, pero innegociable ya, del paradigma CBME, es decir, que la evaluación de las competencias se refiera también, o «de paso», a las competencias mayores o core competencies reflejadas en los mapas de las agencias; de hecho, ellos utilizan en algunos artículos la referencia a las 6 competencias de la ACGME y en otros a los «roles» de la CanMEDs. Pare ello construyen una matriz doble en la que cruzan cada EPA con las competencias mayores, y así comprueban cómo una EPA «toca o se relaciona» con cada una de las competencias mayores; un parto normal, por ejemplo, puede «tocar» 3 competencias al menos (medical knowledge, patient care, y system-based practice). Además, Ten Cate et al. tienen en cuenta la perspectiva longitudinal del progreso del residente y adscriben los diferentes niveles de pericia de este para la ejecución de una EPA al año de formación en el que se realiza la evaluación. Afortunadamente, parece que este modelo, por lo demás ingenioso y capaz de «pacificar a tirios y troyanos» (defensores y detractores de los modelos apprenticeship y basado en competencias), se difunde y adopta en más y más programas de residencia y países. ¿Constituirá quizás el «pequeño santo grial» de la evaluación de la competencia en los próximos años?

Algunos se preguntarán, sin embargo, cuál es en realidad la necesidad de comprobar que un residente que ejecuta las EPA y obtiene los correspondientes STAR de la mano de sus supervisores, es además competente en las core competencies o dominios competenciales mayores. Dicho de otro modo, ¿qué utilidad tiene constatar o reflejar en sus hojas de evaluación que al ejecutar una EPA (digamos un parto complicado) el residente «toca más o menos» competencias mayores tales como medical knowledge, interpersonal communication, patient care, etc., que no pueden ser evaluadas directamente, o en sí mismas? ¿No es algo que se da por añadidura al determinar si el residente desempeña de manera competente una EPA? En este sentido se argumenta por algunos que al empleador sanitario y al público les importa más que un residente sea capaz de realizar una actividad clínica concreta que saber si es competente en uno u otro de los dominios competenciales mayores. Quizás, esta cuestión sea tan solo formal y, a la postre, trivial, pero no debemos olvidar la advertencia de Whitcomb6 de que perseguir «lo que quizás, y según él, no se puede en realidad conseguir», como sería en este caso medir las core competencies, puede llevarnos a cometer el error de abandonar por completo el sistema clásico de enseñanza-evaluación del residente basado en el modelo apprenticeship, un sistema que él mismo reconoce, sin embargo, que no puede mantenerse «en estado puro» por más tiempo, cargado como está de imperfecciones, limitaciones y sesgos de todo tipo a la hora de evaluar, que virtualmente lo invalidan y claman por otro mejor.

El propio Whitcomb6 reconoce que el sistema de coaching y evaluación clásico con supervisor exige irrenunciablemente una «casta» de mentores-tutores específicamente dedicados a esta difícil e importantísima tarea, que es la misma que reclaman Ten Cate et al. para aplicar su sistema de evaluación por EPA, la que exigen también angustiosamente los directores de programa en EE. UU. a la ACGME8, y la misma que deberíamos demandar nosotros para evaluar bien a los residentes adscritos al nuevo programa basado en competencias que nos han pedido diseñar. Y es que la pregunta común en el mundo académico es: ¿dónde están estos tutores y quién está dispuesto a pagarlos? ¿Por qué las omnipotentes agencias que actúan de polea de transmisión de los gobiernos y de la sociedad en Norteamérica (ACGME y CanMEDs) están moderando sus hasta ahora altísimas e «indiscutibles» exigencias de rigor en la evaluación de los residentes y los médicos en ejercicio?

Si estas preocupantes limitaciones y problemas acerca de la evaluación de la competencia se dan en EE. UU., que no podrá ocurrir en nuestro medio, donde no existe todavía la cultura básica de la CBME y ningún responsable oficial ha explicitado aún cómo se financiará la aplicación de los nuevos programas de residencia. La lectura de los borradores del proyecto de troncalidad generados a nivel ministerial por grupos de expertos de extracción y competencia académica desconocidas permite comprobar que no se definen bien ni el perfil del tutor ni la necesidad de formarlo específicamente para su nueva labor, lo que unido a la ausencia de mecanismos de reconocimiento o retribución por su trabajo, plantea serias dudas que habría que despejar a corto-medio plazo si no se quiere que los programas de posgrado basados en competencias queden en «agua de borrajas».

A pesar del criticismo o el pesimismo apriorístico de algunos, la mayoría de quienes se ocupan de la formación médica coinciden en que muy probablemente asistiremos a un equilibrio entre los 2 modelos docentes ahora enfrentados, es decir, el competence-based, y el programme-based, y así la predicción final es que el modelo CBME se implantará de manera generalizada, si bien atemperado con ingredientes del modelo clásico de apprenticeship. Colocar en este momento histórico el mapa de las core competencies en el frontispicio de los currículos y programas resultará cuando menos «orientativo» para que los docentes puedan satisfacer la exigencia de fiabilidad profesional que la sociedad actual plantea a alumnos, residentes, médicos en ejercicio, programas, directores de programas y otras autoridades académicas de las escuelas de medicina y los hospitales universitarios. En todo caso, quienes asumamos la trascendente tarea de formar estudiantes y residentes habremos de hacerlo con esperanza y decisión.

Bibliografía
[1]
J.R. Frank,L.S. Snell,O.T. Cate,E.S. Holmboe,C. Carraccio,S.R. Swing
Competency-based medical education: Theory to practice
[2]
M.L. Green,E. Holmboe
Perspective: The ACGME toolbox: Half empty or half full?
[3]
R.M. Harden,J.R. Crosby,M.H. Davis
AMEE Guide No. 14: Outcome-based education: Part 1–An introduction to outcome-based education
Med Teach, 21 (1999), pp. 7-15
[4]
T.S. Huddle,G.R. Heudebert
Taking apart the art: The risk of anatomizing clinical competence
[5]
O. Ten Cate,L. Snell,C. Carraccio
Medical competence: The interplay between individual ability and the health care environment
[6]
M.E. Whitcomb
Redirecting the assessment of clinical competence
[7]
J.R. Kogan,E.S. Holmboe,K.E. Hauer
Tools for direct observation and assessment of clinical skills of medical trainees: A systematic review
JAMA, 302 (2009), pp. 1316-1326 http://dx.doi.org/10.1001/jama.2009.1365
[8]
T.J. Nasca,I. Philibert,T. Brigham,T.C. Flynn
The next GME accreditation system--Rationale and benefits
N Engl J Med, 366 (2012), pp. 1051-1056 http://dx.doi.org/10.1056/NEJMsr1200117
[9]
R.D. Lobato,J.F. Alén,R. Alday
La repercusión de la nueva regulación del horario laboral del residente sobre la calidad de la enseñanza en el pregrado y el posgrado
Neurocirugia, 19 (2008), pp. 213-218
[10]
A.J. Maxwell,M. Crocker,T.L. Jones,D. Bhagawati,M.C. Papadopoulos,B.A. Bell
Implementation of the European Working Time Directive in neurosurgery reduces continuity of care and training opportunities
Acta Neurochir (Wien), 152 (2010), pp. 1207-1210
Copyright © 2013. Sociedad Española de Neurocirugía
Neurocirugía

Suscríbase al Newsletter

Opciones de artículo
Herramientas
Política de cookies
Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí.