Observatorio de la Economía Latinoamericana

 


Revista académica de economía
con el Número Internacional Normalizado de
Publicaciones Seriadas  ISSN 1696-8352

 

Economía de Cuba

 

APLICACIÓN DE LAS CADENAS DE MARKOV A LOS PROCESOS DE SERVICIOS HOSPITALARIOS PARA LA TOMA DE DECISIONES EN LA ADMINISTRACIÓN DE LA SALUD 

 

Rolando Peguero Pérez (CV)
Gisela Maria Riquenes Despaigne
Germán del Río Caballero
riquenes@eco.uo.edu.cu

 

Palabras claves: Cadenas de Markov, Matriz fundamental, Ecuaciones de Chapman y Kolmogorov, Matriz de transición, Conjunto trasciente, Conjunto ergódico, Forma canónica, Vector de transición y Reducible absorbente

Resumen:

Teniendo en cuenta la necesidad imperiosa de satisfacer las necesidades de los pacientes cuando se encuentran recibiendo un servicio dentro de un centro hospitalario, se aplica la cadena de markov para determinar el tiempo promedio de estancia de los pacientes en una sala determinada, con un determinado nivel de probabilidad en dichos estados transitorios.

Se arriba a los resultados para dar a los directivos de la institución una herramienta para la toma de decisiones dentro del campo de la administración en salud, lo cual pudiera contribuir a conocer los costos hospitalarios de estadía, optimizar los recursos disponibles, perfeccionar los servicios de salud y lograr la excelencia en los servicios prestados.

Los autores hacen énfasis en el uso de la cadena de markov como herramienta estadística que permite determinar la ocurrencia de un evento futuro en dependencia de la ocurrencia del evento inmediatamente anterior, y tiene como bondades que permite encontrar la probabilidad de que un sistema se encuentre en un estado particular en un momento dado y más importante aún, el promedio a la larga o las probabilidades de estado estable para cada estado analizado, prediciendo el comportamiento del sistema a través del tiempo.

Dicha herramienta de análisis a pesar de haber surgido a principios del siglo pasado es una técnica novedosa, de gran utilidad y rigor científico que sirve tanto para economistas, sociólogos, físicos, y otros investigadores que analicen un proceso dado bajo ciertas circunstancias probabilísticas.
 

Para ver el artículo completo en formato pdf comprimido zip pulse aquí


Para citar este artículo puede utilizar el siguiente formato:

Peguero Pérez, Riquenes Despaigne y del Río Caballero: "Aplicación de las Cadenas de Markov a los procesos de servicios hospitalarios para la toma de decisiones en la administración de la salud" en Observatorio de la Economía Latinoamericana, Nº 143, 2011. Texto completo en http://www.eumed.net/cursecon/ecolat/cu/2011/


Introducción:

La aplicación de los procesos aleatorios a la salud constituye una herramienta básica y de fundamental importancia para determinar el comportamiento de determinados fenómenos, así como la función que lo determina, ejemplo de ello son los días camas, intervalo de sustitución, índice de rotación, de los pacientes en una determinada unidad hospitalaria, de forma que se puedan estimar con un determinado nivel de confianza los costos incurridos en la atención de los mismos.

El objetivo de este trabajo radica en la aplicación de las cadenas de Markov como herramienta estadística para la toma de decisiones en el campo de la salud, teniendo un impacto relevante por su rigurosidad técnica y científica para la determinación de indicadores que inciden en los costos de calidad.

Los Costos Totales de Calidad determinados por los costos de calidad y los costos de la mala calidad constituyen el nuevo indicador internacional de medida de la calidad de un servicio, desplazando a los costos clásicos contables, de ahí que su estudio sea de vital importancia para la implantación definitiva en nuestras unidades de salud, estudios determinados por técnicas estadísticas, procesos aleatorios, el cual nos permitan de una manera muy precisa llegar a la estimación de dichos costos de calidad, con un determinado nivel de confianza.

El empleo de las cadenas de Markov será una herramienta de vital importancia para la determinación con cierto nivel de probabilidad de los períodos o intervalos de tiempos de los pacientes que han recibido a algún servicio de salud, y así poder tener de antemano una estimación de los costos en los que incurrirán, para luego poder determinar los Costos Totales de Calidad de esos servicios hospitalarios ofertados.

Desarrollo.

Definición general del proceso aleatorio:

Hablando sobre el proceso aleatorio, como regla, se toma en consideración una determinada magnitud aleatoria ε(t), que varía en el transcurso del tiempo t.

Llamaremos proceso aleatorio ε= ε(t) a la función de parámetro real t € T , cuyos valores ε(t) para cada t son magnitudes aleatorias.

Procesos aleatorios de Markov:

Se denomina proceso aleatorio de Markov ε = ε(t) si las magnitudes aleatorias ε(t), t ≥ u, no dependen de ε(s), s ≤ u , en cualquier momento de tiempo u , para el valor fijado ε(u) = x ( cualquiera que fuese x). Si acordamos considerar ε(t) como el estado fásico de un sistema físico determinado en el momento de tiempo t, entonces el proceso de Markov ε = ε(t) , que describe la evolución del sistema examinado, se puede caracterizar mas demostrativamente de la siguiente forma: el comportamiento del istema después de un determinado momento de tiempo u en el estado conocido x= ε(u) no depende de su comportamiento hasta este momento.

Una propiedad característica de los procesos aleatorios de Markov se ve claramente en un ejemplo tan sencillo como el juego infantil de “quien va despacio va lejos” . En este juego la ficha del jugador deberá pasar un número determinado de puntos 1, 2, ….. El paso de un punto al otro se determina cada vez por el resultado del lanzamiento del dado de juego. Precisamente, si en el paso dado n, la ficha se encuentra en el punto ε(n)= i , por las reglas del juego se establece el punto ε(n+1) de su desplazamiento en el paso siguiente, en dependencia del número de puntos con que cayó el dado de juego. Desde cualquier punto i la ficha pasa en su paso siguiente al punto j correspondiente con una determinada probabilidad pij. Se comprende fácilmente que el proceso aleatorio del cambio de estado ε(n) durante el tiempo n= 1, 2 ,3…. Es un proceso de Markov. (Aquí figura , en lugar del tiempo real , el número n de pasos realizados: se puede considerar convencionalmente, que cada paso se realiza en una unidad de tiempo).

Otros autores plantean de forma más sencilla que una cadena de Markov es una serie de eventos, en el cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto las cadenas de Markov tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros.

Aplicación de Cadenas de Markov a la salud.

El período de observación se divide en una serie de intervalos de tiempo, no necesariamente pero usualmente del mismo tamaño. Supongamos que el j-ésimo intervalo, j = 1, 2, ... , m , se extiende desde tj hasta tj+1, y sean dj y cj el número de eventos y el número de observaciones censuradas en ese intervalo. Sea nj el número de sujetos al riesgo de que le ocurra el evento al inicio del j-ésimo intervalo.

Si suponemos que el "proceso de censura" ocurre uniformemente a lo largo del j-ésimo intervalo, entonces podemos decir que el número promedio de sujetos a riesgo durante el intervalo es: nj ´ = nj - cj /2 .

Por lo tanto, en el j-ésimo intervalo, la probabilidad del evento es dj / nj ´ y la probabilidad de supervivencia es 1 - dj / nj . Finalmente, la probabilidad de que un sujeto sobreviva al tiempo tj es, como ya hemos visto, el producto de las probabilidades de sobrevivir a cada uno de los intervalos hasta el intervalo j-ésimo, es decir

S* (tj) = i=1 , j ((nj´ - dj) / nj´) .

Cada una de las probabilidades en este producto es una probabilidad condicional, en el sentido de que es la probabilidad de sobrevivir al intervalo en cuestión dado que se ha sobrevivido a los intervalos anteriores.

Obsérvese también que la estimación resultante de la probabilidad de supervivencia acumulada es 1 antes del inicio del primer intervalo. La representación gráfica de estas estimaciones es una función escalonada, pues la función de supervivencia es constante en cada intervalo de tiempo.

Aplicación práctica:

En un determinado servicio de un centro hospitalario de Santiago de Cuba, los pacientes una vez intervenidos quirúrgicamente pasan a la sala de recuperación (Estado S1) , donde se sabe que la probabilidad de permanecer en ella es del 70 % , pero se conoce por estudios anteriores que existe un 20 % de pacientes que pueden pasar a la sala de terapia intermedia (Estado S2) por ciertos fallos internos y externos y a su vez un 10 % de pasar a terapia intensiva (Estado S3) por los mismos fallos. A continuación se muestra el diagrama de estado.

Diagrama de Estados:

Con su respectiva matriz de transición:

Matriz de transición

Para el cálculo de las probabilidades de transición utilizaremos las ecuaciones de Chapman y Kolmogorov:

Hemos visto la probabilidad de transición Pij que es la probabilidad de pasar de un estado Ei a un estado Ej en un paso.

Si embargo, en muchos de los problemas resulta de interés conocer la probabilidad de pasar de un estado Ei a otro estado Ej en n pasos. Se definirá entonces:

Pij(n): Probabilidad condicional de que el proceso, comenzando en el estado Ei , esté en el estado Ej después de n pasos; es decir, probabilidad de transición de ir del estado Ei al estado Ej en n pasos.

Ya que Pij(n) son probabilidades condicionales, tienen que satisfacer las propiedades siguientes:

1. Pijn = 0 para todo i,j y n = 0,1,2,… .

m

2. ∑ Pij = 1 para todo i y n = 0,1,2,..

j=1

Para n = 1 , Pij(n) es la probabilidad de transición estacionaria y se denota por Pij(1).

Esto significa que la suma de las probabilidades de transición de cada fila de la matriz tiene que ser igual a 1, ya que a partir de un estado Ei en el experimento n-1, se tendrá como destino uno de los estados Ej del experimento n.

De la misma forma la matriz de las probabilidades de transición en n pasos se representa:

Las ecuaciones de Chapman – Kolmogorov proporcionan un método para obtener las probabilidades de transición en n pasos, a partir de las relaciones recursivas entre probabilidades. Veamos:

Se ha dicho que es la probabilidad condicional de que la variable aleatoria X

comenzando en el estado i se encuentre en el estado j después de n pasos.

Para toda i, j, n y 0 ≤ m ≤ n

Al ir del estado i al estado j en n pasos el proceso estará en algún estado k después de exactamente m pasos.

Es sólo la probabilidad condicional de que, si se comienza en el estado i el proceso vaya al estado k después de m pasos y después al estado j en n-m pasos.

La matriz de probabilidades de transición de n pasos se puede obtener calculando la n- ésima potencia de la matriz de transición de un paso, es decir:

Para el caso en estudio se tienen los siguientes resultados:

Esta matriz queda clasificada como reducible absorbente

Resultados que concuerdan con:

Conjunto transiente: { S1, S2 }

Conjunto ergódico absorbente: { S3 }

Interpretación de los resultados:

3.48 Es el promedio de visitas del médico en que el paciente se encontrará en recupera ción estando en la sala de recuperación.

0.43 Es el promedio de visitas del médico en que el paciente se encontrará en terapia in termedia habiendo partido de recuperación.

0.43 Es el promedio de visitas del médico en que el paciente se encontrará en recupera ción habiendo partido de terapia intermedia.

1.30 Es el promedio de visitas del médico en que el paciente se encontrará en terapia in termedia habiendo partido de terapia intermedia.

Se puede ver que al multiplicar la matriz fundamental por el vector R ( matriz columna) el resultado da otra matriz columna cuyos resultados expresan la probabilidad de los pacientes de pasar del estado S1 y S2 al estado absorbente S3, expresando esto que todos los pacientes morirán.

Conclusiones:

1- Se ha aplicado la cadena de Markov con el objetivo de determinar con un nivel de probabilidad dado, la estadía promedio de los pacientes por sala, lo cual permite conocer los costos hospitalarios del servicio prestado.

2- Las ecuaciones de Chapman – Kolmogorov proporcionan un método para obtener las probabilidades de transición en n pasos, a partir de las relaciones recursivas entre probabilidades, obteniéndose que 3.49 es el promedio de visitas del médico en que el paciente se encontrará en recuperación estando en la sala de recuperación.

3- Los resultados en cuanto al tiempo de estadía de los pacientes y las visitas realizadas por los especialistas, tienen una medida en términos de tiempo no siendo así cuantificada en término monetarios, lo cual ofrece la posibilidad de compararlo con igual servicio a nivel internacional.

Bibliografía:

1. ABRAMOWITZ, M. and STEGUN, I. (1972). Handbook of Mathematical Functions. Dover Publications, New York.

2. A.Gallaghter, Charles y J. Watson, Hugh ( La Habana 2005) Métodos Cuantitativos Para la Toma de Decisiones en la Administración, pp. 330-357.

3. ÁLVAREZ SAINZ, M. (1994). Estadística. Universidad de Deusto, Bilbao.

4. BÁRCENA ODRIOZOLA, P. y GARMENDIA PEDRAJA, C. (1999). “Estudio de las

Avenidas en Cantabria: frecuencia, intensidad y tipología” La climatología española

en los albores del siglo XXI, AEC, pp. 43-52.

5. BÁRCENA, P. y GARMENDIA, C. (2000). « Les types de temps associés au risque d’inondation dans la region littorale de Cantabrie (Nord de l’Espagne) » Publications de l’Association Internationale de Climatologie, Vol. 12, pp. 379-386.

6. BÁRCENA, P. y GARMENDIA, C. (2002). « Les inondations comme risqclimatique en Cantabria: evolution journalière des crues » Publications de l’Association Interna tionale de Climatologie, Vol. 14, pp. 199-205.

7. BROOKS, C.E.P. and CARRUTHERS, N. (1953). Handbook of Statistical Methods in Meteorology. Printed an Published by Her Majesty´s Stationery Office, London.

8. CASKEY, J.E. (1963). "A Markov chain model for the probability of Precipitation occurrence in intervals of various length" Monthly Weather Review, nº 101, pp. 198-301.

9. CONESA GARCIA, C. et MARTIN-VIDE, J. (1993). "Analyse par la chaîne de Markov de la sécheresse dans le sud-est de l`Espagne" Rev. Sécheresse, Vol. 4, nº 2, pp. 123-129.

10.CÓRDOBA Y ORDOÑEZ, J. y ANTÓN BURGOS, J. (1990). "Aplicación de las cadenas de Markov al análisis de la centralidad en un sistema de transporte" Estudios Geográficos, Año LI, nº 198, pp. 33-64.

11.CRESSIE, N.A.C. (1991). Statistics for Spatial Data. John Wiley and Sons, New York.

12.DRTON, M.; MARZBAN, C.; GUTTORP, P. and SCHAEFER, J.T. (2003). “A Markov Chain Model of Tornadic Activity” Monthly Weather Review, Vol.

131, nº 12, pp. 2941-2953.

13.GATES, P. and TONG, H. (1976). “On Markov Chain Modeling to Some Weather Data” Journal of Applied Meteorology, Vol. 15, nº 11, pp. 1145-1151.

14.GORDON, P. (1967). Cadenas finitas de Markov y sus aplicaciones. Editorial Hispano Europea, Colección E.S.A.D.E., Barcelona.

15.KATZ, R.W. (1974). “Computing Probabilities Associated with the Markov Chain Model for Precipitation” Journal of Applied Meteorology, Vol. 13, nº 8, pp. 953-954.

16.LACORATA, G.; PASMANTER, R.A. and VULPIANI, A. (2003). “Markov Chain Approach to a Process with Long-Time Memory” Journal of Physical Oceanography, Vol. 33, nº 1, pp. 293-298.

17.LOWRY, W.P. and GUTHRLE, D. (1968). “Markov chains of order greater than one” Monthly Weather Review, Vol. 96, No. 11, pp. 798-801.

18.MADSEN, H.; SPLIID, H. and THYREGOD, P. (1985). “Markov Models in Discrete and Continuous Time for Hourly Observations of Cloud Cover” Journal of Applied Meteorology, Vol. 24, nº 7, pp. 629-639.

19.MARTÍN-VIDE, J. (1983). “La aceptación del modelo estocástico de la Cadena de Markov homogénea en tiempo discreto y de dos estados en los cálculos de la probabilidad de la precipitación diaria” En: VIII Congreso de Geógrafos Españoles, Comunicaciones, AGE, Barcelona, pp. 24-31.

20.MARTIN-VIDE, J. et al. (1989). "La bondad de la cadena de Markov de primer orden en el cálculo de la probabilidad de secuencias lluviosos y secas en Catalunya" Notas de Geografía Física, nº 18, pp. 51-57.

21.PERRONE, T.J. and MILLER, R.G. (1985). “Generalized Exponential Markov and Model Output Statistics: A Comparative Verification” Monthly Weather Review, Vol. 113, nº 9, pp. 1524-1541.

22.RASO, J.M. (1982) “Probabilidades de transición y distribución estacionaria de los días con y sin precipitación en Palma de Mallorca según el odelo de las cadenas de Markov para dos estados” Tarraco, Cuadernos de Geografía, pp. 195-209.

23. Rozanov, Yuri.(1973) Procesos Aleatorios, pp. 135 – 167.

24.YOUNG, K.C. (1994). "A multivariate chain model for simulating climatic parame ters from daily data" Journal of Applied Meteorology, nº 33, pp. 661-671.


Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios