7

Click here to load reader

La calidad vista desde atención primaria

  • Upload
    jv

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Page 1: La calidad vista desde atención primaria

250 SEMERGEN

INTRODUCCIÓNAl hablar de “calidad” nos encontramos ante un conceptoen continua evolución, que ha ido matizándose y enrique-ciéndose con el desarrollo industrial y social de cada épo-ca, y que sin duda continuará haciéndolo en paralelo almismo. En general, podemos decir que algo es de calidadsi sirve para lo que está previsto que sirva.

No existe una definición de calidad válida de forma uni-versal, ya que dependerá de las circunstancias, del entornoen que se aplican, del objetivo final, del producto que sepretende conseguir, etc. La calidad, por tanto, puede defi-nirse en varios niveles: calidad en general, calidad de losservicios de salud y calidad de un servicio concreto. Noscentraremos en definir calidad del producto o servicio, node la organización u otros aspectos del sistema. La aptitudde un producto o servicio para satisfacer las necesidades delos clientes definiría su calidad. Refiriéndonos en concretoa la atención sanitaria, la Organización Mundial de la Salud(OMS) define como calidad de la misma el “conjunto deservicios diagnósticos y terapéuticos más adecuado paraconseguir una atención sanitaria óptima, teniendo en cuen-ta todos los factores y conocimientos del paciente y del ser-vicio médico, y lograr el mejor resultado con el mínimoriesgo de efectos yatrogénicos, y la máxima satisfacción delpaciente con el proceso”. Algunos autores incluyen en estadefinición el uso adecuado de los recursos o eficiencia1.

La preocupación por la calidad se remonta a tiemposmuy lejanos. En el campo de la sanidad, los primeros lo-gros en cuanto a evaluación y mejora de la calidad se de-ben a profesionales preocupados por los resultados en laatención a sus pacientes. Posteriormente, ante la necesidadde medir los resultados de los procesos realizados, seadaptaron métodos del sector industrial, donde existía undesarrollo metodológico más intenso y fecundo, motivadopor la consecución de una mayor productividad2. De la in-dustria destacan autores como Deming, al que debemos elconcepto de círculo de calidad, y quien remarcó la necesi-dad de la mejora continua de la misma3; Juran, que desa-rrolla las etapas a seguir para conseguir productos de cali-dad, e Ishikawa, con su diseño del diagrama causa-efecto4.

Según lo expuesto hasta ahora, podemos comprenderque cualquier profesional de la salud está en disposición demejorar la calidad de los servicios que presta a la poblaciónque atiende, y todo ello siguiendo una metodología accesi-ble, como se verá en el desarrollo de este artículo.

ATRIBUTOS DE LA CALIDAD: DIMENSIONESSegún se ha podido deducir en el punto anterior, la defi-nición de calidad es compleja, por lo que resulta más sen-cillo su abordaje haciendo referencia a las característicasque la determinan; es decir, a una serie de atributos o as-pectos necesarios para que el proceso asistencial se consi-dere de calidad5.

Existe una gran variedad de dimensiones. A continua-ción pasamos a definir aquellas que nos parecen más rele-vantes, por ser las más empleadas en los estudios de cali-dad en atención primaria.

1. Efectividad. Es el beneficio obtenido de una actuaciónsanitaria en condiciones reales de aplicación. Consiste, portanto, en la medida en que una determinada práctica oatención sanitaria mejora el estado de salud de la pobla-ción concreta a la que se aplica, frente a la eficacia, que mi-de la probabilidad de beneficio en condiciones ideales deuso (investigaciones en experiencias piloto).

2. Eficiencia. Relación entre calidad obtenida y los re-cursos y costes empleados en ella. Consiste, pues, en con-seguir los objetivos al menor coste posible6.

3. Satisfacción. Medida en que la atención prestada satisfa-ce las expectativas del usuario. No siempre se relaciona direc-tamente con el nivel científico-técnico del profesional, sinoque también influyen otros factores: información, trato, etc.

4. Adecuación. Relación entre los servicios que se en-cuentran disponibles y las necesidades reales de la pobla-ción. Sería sinónimo de conveniente o necesario para eldéficit de salud que se detecta.

5. Accesibilidad. Facilidad con la que el usuario puedeobtener la asistencia que necesita. Se refiere tanto a barre-ras arquitectónicas como organizativas, etc.

6. Calidad científico-técnica. Se refiere a la capacidad de losprofesionales para utilizar de forma idónea los conocimien-tos científicos actuales. Sería la competencia profesional.

Otras dimensiones que conviene enumerar para tenerconocimiento de su existencia son equidad, continuidad,aceptabilidad, cobertura, legitimidad, información, etc.

La calidad vista desde atención primariaD.N. Ramírez Puertaa, P. Casado Pérezb, M. Ricote Belinchónc y J.V. Zarco Rodríguezd

Médicos de Familia. aCS Montilla. Córdoba. bEAP de Canillejas I. Área IV de Madrid. cEAP Daroca II. Área IV de Madrid. dEAP La Plata. Área III de Madrid.

Correspondencia: D.N. Ramírez Puerta.Avda. Andalucía, 11.C.S. Montilla. Córdoba.

SEMERGEN: 2001; 27: 250-256.

tema centralcalidad en atención primaria

Page 2: La calidad vista desde atención primaria

do un plan de implantación de medidas correctoras y finali-za evaluando los logros conseguidos12. En definitiva, se tra-ta de realizar un análisis detallado de un problema asistencialreal, para identificar posibles causas y buscar soluciones.

A continuación pasaremos a describir brevemente lospasos a seguir en todo ciclo de mejora (tabla 1).

Identificación de problemasConsiste en decidir cuál o cuáles son los servicios o aspec-tos de entre los que ofrecemos a la población que quere-mos mejorar y, entre ellos, priorizar sobre los que vamos aactuar.

Existen muchos métodos para la identificación de losproblemas, todos ellos válidos y ninguno excluyente entresí. Uno de los principales factores determinantes del mé-todo que vamos a emplear es el hecho de disponer o no dedatos sobre los servicios que prestamos13. Si disponemosde dichos datos, emplearemos métodos cualitativos, si no,cuantitativos (tabla 2). Conviene, sin embargo, conocerunos pocos de ellos, de los que destacamos los siguientes:

La tormenta de ideas o brainstorming, que destaca por es-timular la creatividad y la identificación de una gran can-tidad de oportunidades de mejora, pero es difícil que sir-va por sí sola para seleccionar uno.

En este método se comienza por la exposición del obje-tivo de la reunión por parte del moderador. Se recuerdanlas reglas del método (no criticar las ideas propuestas), seplantea (por parte del animador) un ejemplo que puedeparecer banal, pero que favorece un ambiente distendidoy la generación de ideas, y por último se pasa a la exposi-

D.N. Ramírez Puerta et al.– La calidad vista desde atención primaria

SEMERGEN 251

OBJETIVOS DE LA EVALUACIÓN DEACTIVIDADES Y ASPECTOS SUSCEPTIBLESDE SER EVALUADOSEl objetivo principal de todo proceso de evaluación es ga-rantizar una calidad óptima en la atención sanitaria que sepresta al usuario, pero a la vez constituye un procedi-miento eficaz que ayuda al profesional a buscar la soluciónmás apropiada a los problemas de salud de la población.Para ello se ha de partir de la detección del problema rela-cionado con la asistencia, y establecer oportunidades demejora, evaluando las mismas y proponiendo e imple-mentando medidas correctoras. En esto consiste, esque-máticamente, la metodología de la calidad, que desarrolla-remos más adelante7.

Hay muchos aspectos susceptibles de ser evaluados ennuestra actividad asistencial, y su objetivo final ha de ser elde mejorarlos. En general, pueden evaluarse el conjunto deactividades asistenciales, sus riesgos, los recursos emplea-dos en el desarrollo de las mismas y los resultados obteni-dos. Dentro de las actividades asistenciales se incluyen to-do tipo de procesos llevados a cabo en la atención primaria(AP), como actividades organizativas, procedimientos ad-ministrativos, diagnósticos, tratamientos, procedimientosde gestión, docentes e investigadores; así como una cues-tión fundamental en cualquier programa de evaluación: lasatisfacción del usuario. Ésta puede evaluarse a través dedistintas fuentes: análisis de reclamaciones, entrevistas,grupos de discusión, etc.8. Concretando, podríamos decirque los aspectos en los que deben centrarse las actividadesde garantía de calidad que se emprenden desde los equiposde AP son el proceso de atención a la salud de su poblacióny los resultados obtenidos en ese proceso.

¿CÓMO EVALUAR? EL CICLO EVALUATIVOCualquier profesional de la salud puede mejorar la calidadde los servicios que presta, todos podemos hacerlo. Paraello, lo que necesitamos es el interés por la mejora y el co-nocimiento de una metodología a seguir, la cual es senci-lla y está validada9. Debemos partir de unos criterios mí-nimos para poner en marcha actividades de mejora, bus-cando el apoyo de los profesionales que actúan comolíderes en el equipo, implicándolos activamente en el tra-bajo de mejora, que debe ser un trabajo en equipo, siendomuy importante contar con el apoyo externo (Direccionesde Área, etc.)10.

Un sistema de mejora no consiste en recoger datos cu-yo fin sea elaborar informes o diseñar diagramas de deter-minados procesos asistenciales, sino que la informaciónrecabada tiene que servir para conocer qué problemasexisten y por qué el proceso asistencial no produce los re-sultados esperados11, con el fin último de mejorarlos.

Existen distintas formas de evaluación de la calidad asis-tencial en atención primaria. El que vamos a desarrollar, porser un método sencillo y práctico, es el ciclo evaluativo o demejora (fig. 1). Dicho método se inicia al detectar una opor-tunidad de mejora, identificando y analizando las causas de-terminantes, formulando una hipótesis de mejora, diseñan-

Identificación de oportunidades de mejora

Diseño de la motorización Análisis del problema

Elaboración de criteriosy/o indicadores

Diseño del estudiode evaluación del nivel

de calidad

Reevaluación del nivelde calidad

Implantación de medidascorrectoras

Diseño de la intervención

Recogida y análisisde datos

Figura 1. Ciclo evaluativo de la calidad. (Modificada de Ramírez P, Casado Py Zarco J. FOMECO.)

Tabla 1. Pasos del ciclo de mejora de la calidad

1. Identificar los problemas2. Analizar los problemas3. Elaborar criterios, indicadores, estándar4. Diseño del estudio5. Plan de mejora6. Ejecución de las medidas correctoras7. Revaluación

Page 3: La calidad vista desde atención primaria

ción, por parte de cada participante, de una sola idea a lavez. Se pueden decir cuantas ideas se deseen, sin limita-ción del número.

El grupo nominal consta de una parte de trabajo individualy otra en grupo. Requiere un grupo no mayor de 10 perso-nas y homogéneo. Se plasma por escrito el objetivo de lareunión, y también por escrito se van identificando los pro-blemas por los distintos participantes (tabla 3).

La técnica Delphi se basa en el conocimiento de las prio-ridades en problemas de salud a través del correo entrepersonas seleccionadas (de la comunidad o profesionalesdestacados en el campo a estudiar). Resulta poco eficientepara ser aplicada por un equipo de AP que desea conocersituaciones de mejora, porque implica un proceso largo,laborioso y costoso.

Otros métodos son la comparación por pares y la matrizdecisional.

Con alguno de estos métodos se puede llegar no sólo ala identificación, sino también a la priorización del pro-blema, a mejorar. Si no es así, se emplearán métodos es-pecíficos para la priorización de los problemas: Hanlon,Cendes, Simplex, ponderación de criterios, etc.

Análisis de problemas detectadosEste paso es muy importante para decidir qué vamos a ha-cer a continuación, e incluye analizar detalladamente lascausas o motivos que han dado lugar a la aparición del as-pecto mejorable, considerar las posibles soluciones, detec-tar y analizar las resistencias al cambio y establecer unosadecuados mecanismos de control del proceso que vamosa desarrollar.

Para elegir el o los métodos de análisis, lo más impor-tante es que se adapten al problema y permitan alcanzarlos objetivos de ese análisis. Algunos de éstos métodosson:

– Diagrama de Pert o flujograma, que describe de unaforma estructurada la secuencia de actividades de un pro-ceso. El American National Standards Institute ha estanda-rizado una serie de símbolos utilizados en este diagrama,con significados concretos, como se indica en la figura 2.

– Diagrama de causa-efecto, de Ishikawa o de espina depescado. Se trata de un diagrama que pretende analizar lascausas de un problema. Explora de forma sistematizada lasdistintas categorías o clases de causas que influyen en elproblema. Se dividen en causas de primer orden (medi-bles), de segundo y tercer orden (no medibles) (figura 3).El análisis detallado de las causas facilita el último paso deeste método: la búsqueda de soluciones al problema iden-tificado.

– Análisis de los campos de fuerza. En él se realiza una lis-ta de las fuerzas a favor de la priorización del problema, yotra de fuerzas en contra, estableciéndose una estrategiapara disminuir las fuerzas en contra y reforzar las fuerzasa favor.

Construcción de criterios e indicadores y determinacióndel estándar para evaluar la calidadEs la fase fundamental del ciclo evaluativo, pues trata deconstruir las herramientas con las que desarrollar la eva-luación y mejora del problema detectado. Es importanteestablecer criterios válidos y fiables para medir la calidaddel servicio que se evalúa, así como los estándares de cali-dad deseables a los que se quiere llegar al instaurar las me-didas correctoras.

CriterioEs el aspecto concreto del problema detectado que vamosa medir, para conocer su grado de cumplimiento. Son nor-mas de buena calidad que establecemos (p. ej., medida dela presión arterial [PA] a los pacientes mayores de 18 añosque acudan al centro). Cuando se establece un criterio,

Volumen 27, Número 5, Mayo 2001

252 SEMERGEN

Tabla 2. Métodos para la identificación de problemas

1. Métodos cualitativosTormenta de ideasTécnica del grupo nominal (o de Delbek)Matriz decisionalComportamiento por paresComunicación de incidenciasTécnica DelphiEntrevistas

2. Métodos cuantitativosMicromuestreo de registrosMonitorización de indicadoresAnálisis de perfiles estadísticosParticipación del usuario en la identificación de problemasAnálisis de quejas y reclamacionesGráficos de controlEncuestas

Ejecutar tarea A

Ejecutar tarea B

Ejecutar tarea D

Ejecutar tarea C

Final

Inicio

Contingencia X

Contingencia Y

NO

SÍ NO

Figura 2. Diagrama de flujo. (Modificada de Ramírez P, Casado P y Zarco J.FOMECO.)

Tabla 3. Pasos a seguir en la técnica del grupo nominal

Generación de ideas de forma individual, por escrito. Conviene limitar a 3 o 5 el número de propuestas

Registro del listado individual de ideasClarificación de ideas. Aclarar el significado de las ideas registradas en

el listado común. Se vuelve a establecer el listado, suprimiendo ideasde conceptos similares

Priorización individual de las ideas. Votación preliminarDiscusión del voto preliminarVoto final

Page 4: La calidad vista desde atención primaria

hay que definir las excepciones y aclaraciones para que que-de perfectamente definido. Los criterios pueden ser implí-citos, esto es, se basan en la opinión de un profesional ex-perto sobre lo que debería hacerse, sin que exista un con-senso expreso sobre la validez de dicho juicio1, y explícitos(auditoría), que son los que especifican cada parámetro aevaluar, con todas las condiciones a seguir. Los criteriosexplícitos pueden ser, a su vez, empíricos, basados en lapráctica habitual, o normativos, sustentados en los conoci-mientos científicos.

IndicadorSirve para medir el grado de cumplimiento de los criteriosy poder compararlos con el estándar. Por ejemplo:

N.o de pacientes > 18 años a los que se ha tomado la PA

N.o de pacientes que han acudido al centro

Los indicadores se pueden referir a datos de estructura,proceso o resultado.

1. Estructura. Se refiere al conjunto de recursos del quedispone la organización (económicos, físicos, humanos,materiales y sistemas de organización). Su evaluación sue-le ser sencilla. Una buena estructura no implica directa-mente una buena calidad, pero es importante disponer delos recursos adecuados para obtener un nivel de calidadmínimo. Ejemplo de indicador de estructura: número deenfermeras formadas en la toma de PA/número total de en-fermeras.

2. Proceso. Lo constituye todo el conjunto de actividadesque realizan los profesionales para atender la salud de sus

pacientes, y la respuesta de éstos a dichas actividades. Sonel tipo de indicadores que más uso tienen en AP, por serfáciles de evaluar, ya que su fuente suele ser la historia clí-nica. Ejemplo: número de hipertensos que han recibidoeducación sanitaria/número de hipertensos del centro.

3. Resultado. Son las mejoras obtenidas en la salud de lapoblación, o en la satisfacción de los usuarios ante la aten-ción recibida, o en aumento de la calidad de vida. La eva-luación de los resultados sería la aproximación más direc-ta a la verdadera calidad asistencial, pero es la más com-plicada de realizar, debido a lo intangible de los datos quese manejan. Ejemplo de indicador de resultado: grado dedisminución de episodios cardiovasculares en hipertensosincluidos en el programa.

EstándarEs el nivel mínimo que ha de alcanzar el cumplimiento de un criterio para que sea aceptable. Debe fijarse antes deiniciar la evaluación, a fin de no rebajar las pretensionesiniciales. Se expresa en porcentaje. Ejemplo: al 80% de lossujetos que acuden al centro y mayores de 18 años se lesdebe haber realizado una toma de la PA

Diseño del estudioTras definir los criterios, los indicadores de evaluación ylos estándares de calidad a cumplir, pasamos a la fase dediseño del estudio del nivel de calidad, en la cual es im-prescindible contar con los siguientes elementos:

1. Criterios para evaluar. Descripción de los criterios (loque vamos a medir), clasificación de los mismos, especifi-cando excepciones y aclaraciones.

D.N. Ramírez Puerta et al.– La calidad vista desde atención primaria

SEMERGEN 253

Excesivademora enser visitado

Personales

Pacientesinpuntuales

Acuden comourgencia

Cada pacienteprecisa tiempodistintos

Inseguridaddel médico

No respuestaadecuada a

necesidadespaciente

Excesiva demanda

Escasa citaconcertada

Elevado númerosde ancianos

Hiperfrecuentadores

No hay cita ATSa demanda

Falta de suplentes

Reparto deconsultas

Organización

Interrupciones

Gran cargaburocrática

Reparto deconsultas

Mal uso de laagenda

Mala organización de laburocracia (t. recetas)

Aprovechan ATSpara consultamédica

No se deriva a citaconcertada

No hayreposición deconsulta

Cogemos materialde la consulta de

al lado

Análisis perdidos enotras consultas

Figura 3.

Page 5: La calidad vista desde atención primaria

2. Dimensión estudiada. Aclarar qué característica o atribu-tos de la calidad son los que se van a medir: calidad científi-co-técnica, satisfacción del usuario, accesibilidad, etc.

3. Tipo de datos. Constatar si son datos de estructura,proceso o resultado.

4. Unidades de estudio. Se subdividen en:– Profesionales cuya actividad será evaluada (todo el

equipo, un determinado estamento).– Población de estudio. Tipo de casos que van a formar

parte de nuestro estudio, con criterios de inclusión defini-dos (hipertensos con tratamiento diurético, hipertensosmayores de 65 años, etc.).

– Período de estudio. Fragmento temporal en el que va-mos a comprobar si el criterio se cumple o no (retrospec-tivo, prospectivo o transversal).

5. Fuentes de datos. Lugar de donde se van a extraer losdatos: listados, censos, historias clínicas, etc. Evitar en loposible tener que crear fuentes de datos, usando las yaexistentes.

6. Identificación y muestreo de las unidades de estudio.– Marco muestral: total de casos o universo.– Número de casos: conviene manejar muestras peque-

ñas, de 50 a 60 casos.– Método de muestreo: sistemático, aleatorio simple, por

estratos.7. Tipos de evaluación.– Según relación temporal: retrospectiva, concurrente o

prospectiva.– Según quien toma la iniciativa: evaluación interna o

externa.– Según quien obtiene los datos: cruzada (un profesio-

nal evalúa la actuación de otro) o autoevaluación.8. Fiabilidad del estudio. Es el grado de reproducibilidad

de los resultados cuando el experimento es repetido porevaluadores diferentes. Para valorar el grado de fiabilidadde nuestro estudio existen varios índices: índice de kappa,índice de concordancia general, y el índice de concordan-cia específico.

El más conocido de todos es el índice de kappa (κ), quemide la concordancia total existente si excluimos la debi-da al azar. Este índice presenta valores de 0 a 1 (valor 0cuando todas las coincidencias se deben al azar y el valor1 representa la máxima concordancia). Se consideran bue-nos los valores superiores a 0,6.

El índice de concordancia general (ICG) es la propor-ción de casos en que ambos evaluadores coinciden. Debeser superior al 95% para indicar fiabilidad (fig. 4).

Representación gráficaEs aconsejable hacer una representación gráfica de los da-tos de la evaluación para facilitar su análisis y compren-sión. En los estudios de calidad las representaciones gráfi-cas más usadas son las siguientes14:– Polígono de frecuencias o histograma. En él se enumeranlos criterios en el eje de abscisas y se marca el porcentajede cumplimientos en el de ordenadas. Se dibuja un polí-

Volumen 27, Número 5, Mayo 2001

254 SEMERGEN

Calcular (ICG)concordancia

Muestra evaluadapor 2 o más evaluadores

CalcularKAPPA> 95%

SíICG ± 95% κ > 0,4

Sí No

Considerar prevalenciaes > 85% a < 15%

No

Indicadorfiable

Indicadorno fiableNo aplicable

No

6

7

8

910

11

12

100

80

60

40

20

0

100

90

80

70

60

50

40

30

20

10

01

Criterios

Cum

plim

ient

os (%

)

2 3 4 5 6 7 8 9 10 11 12

Figura 4.

Figura 5.

Figura 6.

Page 6: La calidad vista desde atención primaria

gono con áreas proporcionadas al grado de cumplimientode cada criterio (fig. 5).

– Gráficos tipo estrella o radar. Cada criterio se represen-ta en un eje que parte de un punto 0 central, y se marcaen cada uno de ellos una escala de igual proporción, queindica el grado de cumplimiento del criterio. Es útil paraestablecer comparaciones. No sirve si el número de crite-rios es muy bajo (fig. 6)

– Gráficos tipo box and whiskers (caja y bigote). Se nece-sita inicialmente establecer los valores mínimo y máximo delas variables, el primer cuartil y el tercero (25 y 75% de losvalores), y la mediana de la distribución. Los cuartiles deli-mitan los bordes de la caja, y los valores mínimo y máximola longitud de los bigotes. También se pueden modificar losbigotes para señalar outliers, o valores muy extremos (fig. 7).

– Diagrama de Pareto. Es un diagrama de barras en el quelas diversas causas del problema se ordenan de mayor amenor grado de importancia. La frecuencia relativa de ca-da caso se va sumando y se forma una curva sobre el dia-grama con las frecuencias acumuladas obtenidas (fig. 8).En dicha curva es fácil comprobar que, la mayoría de lasveces, un problema se debe a un pequeño grupo de causas(Ley de Pareto del 20/80) o pocos vitales.

El tipo de representación gráfica se elige dependiendode la clase de variable medida, de si se trata de estimacio-nes puntuales o intervalos de confianza y de si nos intere-san más los cumplimientos o los incumplimientos

Plan de mejoraEl éxito de un programa de gestión de la calidad se basa endedicar la misma atención a la identificación y análisis delos problemas que a los aspectos destinados a solucio-narlos.

El primer punto para empezar a elaborar intervencionesde mejora es la discusión sobre los resultados obtenidos, en-tre todos los implicados en el tema, buscando la máximaparticipación, con el fin de que las actividades que se pre-tenden llevar a cabo tengan una base real y una aceptacióngeneral. En numerosas ocasiones la simple discusión en gru-po sobre los resultados obtenidos y las sugerencias surgidasespontáneamente dentro de él pueden ser suficientes paradecidir lo que se debe hacer; pero en otras ocasiones habráque seguir algún método estructurado para elaborar un plande mejora realista y aceptado por la mayoría del grupo.

En esta fase se pueden utilizar diferentes técnicas parapriorizar actividades de mejora. Destacamos entre todas larealización de encuestas sobre intervenciones (se planteanuna serie de preguntas al grupo sobre las posibles inter-venciones a realizar, dependiendo de sus factores causales,contestando en forma de tormenta de ideas, con prioriza-ción posterior de las ideas surgidas). Otras posibilidadesson la técnica de votaciones múltiples y el diagrama de afi-nidades15.

En general, las medidas correctoras que suelen plan-tearse se refieren a aspectos de formación, organización y/omotivación de los profesionales16.

– Medidas educativas. Corrigen problemas de déficit deformación y tratarían de sistemas de formación continua-

da y la instauración de mecanismos de feed-back, sobre lainformación.

– Medidas organizativas. Implican la creación de nuevossistemas de organización, por lo que resulta más difícil suimplantación, aunque a la larga son las más beneficiosas.

– Medidas motivadoras. Para lograr la motivación puedenser necesarias técnicas como la presentación de las propues-tas de mejora por profesionales de prestigio, uso del poder(premios o castigos), sensibilización sobre el problema, rea-lización de consultas y discusión entre profesionales.

Ejecución de medidas correctorasTras haber elegido y consensuado con todo el equipo laspropuestas de mejora, se trata ahora de llevarlas a la prácti-ca. Es conveniente establecer una planificación operativaque nos permita controlar la adecuada implantación y desa-rrollo de las medidas correctoras, así como el responsable dellevarlas a cabo. Para conseguirlo podemos utilizar técnicas

D.N. Ramírez Puerta et al.– La calidad vista desde atención primaria

SEMERGEN 255

80

70

60

50

40

30

20

10

0Criterios

Esca

la d

e m

edid

a

*Outliers

Escala de medicióndel criterio

Valor mínimo

Primer cuartil Mediana Tercer cuartil

Figura 7.

Núm

ero

incu

mpl

imie

ntos

(def

ecto

s)

11Criterios

12 8 14 15 6 16 17 9 13 3 1 2 10 4 5 7

10

0

80

60

40

20

0

Porcentaje

Pocovitales

Total incumplimiento

(%) acumulado

61%

Figura 8.

Page 7: La calidad vista desde atención primaria

como el cronograma o diagrama de Gannt (representacióngráfica con la secuencia temporal de las actividades a reali-zar desde el inicio al fin del plan de mejora), diagrama deproblemas anticipados (refleja en una gráfica la posible apa-rición de problemas en el tiempo, para poder planificar lasposibles soluciones por anticipado), cartel narrativo o storyboard (representación gráfica, paso a paso, del plan de me-jora que se está realizando, dejando espacios en blanco quese van rellenando según se avanza en el proceso)17.

RevaluaciónEs la fase final del ciclo de mejora. En ella evaluaremos sihemos tenido éxito con la intervención diseñada y aplica-da; compararemos los resultados obtenidos en relacióncon la situación de partida y con los objetivos que nos ha-bíamos propuesto.

Se debe diseñar la revaluación de forma que los datossean comparables con los de la evaluación inicial. Se ana-lizan y comparan los datos resultantes, y a partir de ahí seplantean nuevas propuestas de mejora. Es muy importan-te no cambiar los criterios establecidos, ni sus definiciones,así como mantener las unidades de estudio y modificar lomenos posible el marco muestral.

Para demostrar la mejora debemos establecer estadística-mente que la diferencia es significativa entre las dos evalua-ciones (en caso de muestreos), o mediante la utilización deun diagrama de Pareto antes-después, que es una forma sen-cilla y clara de visualizar gráficamente la diferencia (fig. 9).

Una vez realizada la revaluación, nos situamos nueva-mente al inicio del ciclo de mejora, con un nivel determi-nado de calidad, que puede ser el ideal que nos habíamosplanteado, o estar aún por debajo del mismo, por lo quese pondría en marcha de nuevo todo el sistema, paso porpaso. Si estimamos que el grado de calidad alcanzado esadecuado, se establece un plan de monitorización paraasegurarnos de que continuaremos manteniéndolo; objeti-vo final de cualquier programa de gestión de la calidad.

BIBLIOGRAFÍA1. Palmer RH. Evaluación de la asistencia ambulatoria. Principios y

práctica. Madrid: Ministerio de Sanidad y Consumo, 1990; 3.2. Velasco J, Campins JA. Gestión de calidad I. Garantía y consolida-

ción. Madrid: Ediciones Pirámide S.A., 1997.3. Deming WE. Calidad, productividad y competitividad. La salida de

la crisis. Madrid: Díaz de Santos, 1989; 6.4. Ishikawa K. What is quality control? The Japanese way. Englewood

Cliffs: Prentice-Hall, 1985; 3.5. García Boró S, Agra Varela Y. Evaluación y mejora de la calidad asis-

tencial I: bases conceptuales. Medifam 1998; 8: 105-112.6. Revert RM, Fuster RM, Varo J. Calidad y costes. El coste de la ma-

la calidad. Todo Hospital 1996; 129: 59-64.7. Rossel Aguilar I. Garantía de calidad. Curso Intensivo para Médicos

de Atención Primaria. Colegio de Médicos de Asturias, 1996.8. Saura M, Saturno PJ. Clasificación de actividades en atención pri-

maria de salud. Revisión de las existentes y una nueva ropuesta(CLASIFAC). Centro de Salud 1995; 3: 569-582.

9. Berwick DM, Godfrey AB, Roessner J. Curing health care. New stra-tegies for quality Improvenment. San Francisco. Jossey-Bass pu-blishers, 1990.

10. Agra Varela Y, García Boró S. Evaluación de la calidad asistencial II.Identificación de problemas y selección de prioridades. Medifam1998; 8: 174-181.

11. Saturno PJ. La definición de la calidad de la atención. En: MarquetPalomer R, editor. Garantía de la calidad en atención primaria. Bar-celona: Doyma, 1993; 7-17.

12. Rosell Aguilar I. Evaluación de la garantía de calidad. Curso inten-sivo para médicos de atención primaria. Colegio de Médicos deOviedo, 1996.

13. Kinlaw DC. Continuous improvement and measurement for totalquality. A team-based approach. San Diego: Pfeiffer & CompanyC.A.,1992.

14. Gitlow H, Oppenheim A, Oppenheim R. Stabilizing and improvinga processwith control charts. En: Gitlow H, Oppenheim A, Oppen-heim R, editores. Quality management. Tools and methods for Im-provement. Chicago: Irwikn, 1995; 107-161.

15. Agra Varela Y, García Boró S, Magrinye P. Manual de garantía decalidad en atención primaria. Conferencia de Salud de la CAM,1994.

16. Ramírez Puerta DN, Casado Pérez P, Zarco Rodríguez J. Gestión decalidad en AP. FOMECO 1997; 7(3) 130-142.

17. Marquet R, Benet J, Mart JM. Organización de las actividades decontrol de calidad asistencial en un centro de salud. En: JiménezVilla J, editor. Programación y protocolización de actividades. Bar-celona: Doyma, 1990.

Volumen 27, Número 5, Mayo 2001

256 SEMERGEN

Incu

mpl

imie

ntos

342

5

Criterios

12 11 4 8 9 10 1 7 2 6 3

100

50

0

1.ª evaluación

Incu

mpl

imie

ntos

342

12

Criterios

11 5 8 9 4 10 7 6 2 1 3

100

50

0

2.ª evaluación

222

Mejora

Figura 9.