EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA 
UNA APROXIMACIÓN MATEMÁTICA

EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA UNA APROXIMACIÓN MATEMÁTICA

Josep Maria Franquet i Bernis

Volver al índice

 

 

 

 

4.2. Teorema de Bayes

Ya que nos hemos referido a él en diferentes apartados de nuestro libro, veamos que el famoso teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado que da la distribución de probabilidad condicional de una variable aleatoria A dada B en términos de la distribución de probabilidad condicional de la variable B dada A y la distribución de probabilidad marginal de sólo A.

Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos incompatibles cuya unión es el conjunto total y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B|Ai). Entonces, la probabilidad P(Ai|B) viene dada por la expresión:

donde:

P(Ai) son las probabilidades a priori.

P(B|Ai) es la probabilidad de B en la hipótesis Ai.

P(Ai|B) son las probabilidades a posteriori.

Esto se cumple i = 1, ..., n.

Una explicación más detallada del concepto sería la siguiente. Sean los sucesos elementales y mutuamente excluyentes: A1, A2, ..., An tales que constituyen un sistema completo de sucesos cuya unión es el espacio muestral E, esto es, tales que:

A1  A2  ...  An = E

Ai  Aj =  si i  j

Se suponen conocidas las probabilidades P(Ai) -que se acostumbran a denominar “probabilidades a priori”- así como las probabilidades condicionadas P(B/Ai), llamadas “verosimilitudes”, donde B es un suceso cualquiera que se sabe realizado.

El problema que resuelve el teorema de Bayes o teorema sobre la probabilidad de causas es obtener las probabilidades a posteriori, esto es, las P(Ai/B). Se tiene, evidentemente:

P(AiB) = P(Ai) • P(B/Ai) = P(B) • P(Ai/B)

de donde:

Pero, por otra parte:

B = BE = B(A1  A2  ...  An) = (BA1)  (BA2) … (BAn)

y debido a la incompatibilidad, se cumplirá que:

P(B) = P(BA1) + P(BA2) + ... + P(BAn) =

= P(A1) • P(B/A1) + P(A2) • P(B/A2) + … + P(An) • P(B/An)

Resultando, en definitiva, la expresión general:

Sea, como ejemplo de aplicación, el siguiente ejercicio.

Una vez realizadas las pruebas pertinentes se observa que un sistema psicológico (individuo) afectado de dislalia posee un promedio diario de expresión verbal del 50% por la mañana (8h. – 14h.), 30% por la tarde (14h. – 20h.) y 20% por la noche (20h. – 24h.). Los porcentajes de palabras defectuosamente pronunciadas son, respectivamente, del 3%, 4% y 5%. ¿Cuál es la probabilidad de producir una palabra defectuosa según cada fase del día?

Solución:

P(M) = 0’50  P(D/M) = 0’03

P(T) = 0’30  P(D/T) = 0’04

P(N) = 0’20  P(D/N) = 0’05

Así pues, la probabilidad de emitir una palabra defectuosa por la mañana, será:

Del mismo modo, por la tarde, se tendrá:

Por último, por la noche, se tendrá:

que también podría haberse obtenido, lógicamente, por la aplicación individualizada de la fórmula correspondiente.

Digamos, en definitiva, que el teorema de Bayes resulta válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados “estadísticos bayesianos” permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y permite revisar esas estimaciones en función de la evidencia, lo que está abriendo nuevas formas de hacer conocimiento. Como observación, se tiene que:

y su demostración resulta trivial.