EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA 
UNA APROXIMACIÓN MATEMÁTICA

EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA UNA APROXIMACIÓN MATEMÁTICA

Josep Maria Franquet i Bernis

Volver al índice

 

 

 

 

3.3. Probabilidad frecuencialista

Hacia el año 1920 el matemático Von Mises (ver capítulo 3) presenta un nuevo concepto de probabilidad, que corresponde a un límite especial, cuando n tiende a infinito, de la frecuencia relativa o cociente de dividir el número de veces o frecuencia absoluta v que aparece en un suceso S por el número de veces n que se realiza un determinado experimento o prueba, es decir:

En el ejemplo del dado, la probabilidad de Von Mises se calcularía arrojando el dado un gran número de veces (1.000, 10.000, un millón de veces, por ejemplo) y calculando para cada tirada el cociente del número de casos en que ocurre el suceso “número par de puntos” por el número de tiradas; al crecer n se encontrará cada vez mayor estabilidad de la frecuencia, que oscilará alrededor de 0’5 si el dado es correcto.

Los tratadistas del Cálculo de Probabilidades recogieron la idea de Von Mises como un postulado empírico, al que denominaron la ley empírica del caso y tal idea la ha recogido la moderna Estadística no como un postulado, sino como una base o imagen empírica que han tenido presente los estadísticos que han elaborado teorías formales basadas en el concepto de frecuencia.

Se considera al estadístico ruso Kolmogoroff como el creador de dichas teorías frecuencialistas de la probabilidad. Para construir una teoría frecuencialista se parte, en general, del concepto de experimento aleatorio (arrojar un dado, por ejemplo) que corresponde “al que puede realizarse en las mismas condiciones un número de veces tan grande como se quiera, sin que pueda predecirse -en ningún caso- cuál ha de ser el resultado final en una realización aislada de dicho experimento”. Al realizar un experimento se observa la presentación o no de un suceso S y ante una sucesión indefinida de experimentos se tiene, sucesivamente, un nuevo valor de la frecuencia relativa v/n; la base empírica -que Cramer denomina regularidad estadística- consiste en aceptar que pese al comportamiento irregular de los resultados individuales, la frecuencia relativa presenta una regularidad “machacona” al realizar el experimento un gran número de veces.

Después de establecer la anterior terminología y de aceptar la idea de regularidad estadística se puede formular una axiomática que fundamente el concepto de probabilidad, cuyo primer axioma podría ser el que sigue: “A todo suceso S, originado por la realización de un experimento aleatorio, le corresponde un número P(S) que se denomina probabilidad del suceso S”. Este axioma como tal puede aceptarse de una manera abstracta, pero la ciencia que se construya a partir de él tendrá un mayor interés práctico si se tiene in mente aquella idea de frecuencia relacionada con el concepto de regularidad estadística.

Sin embargo, el concepto frecuencialista de la probabilidad no resuelve los problemas que no pueden considerarse dentro del modelo de experimento. El ejemplo de ¿cuál es la probabilidad de que un individuo normal se convierta en asesino al día siguiente? no tiene una respuesta aceptable dentro de la teoría frecuencialista. El asesinato no puede ser un suceso que se origine por la realización de un experimento aleatorio y, sin embargo, no parece incorrecto afirmar que es poco o muy poco probable que dicho individuo se convierta en asesino de la noche a la mañana. Este tipo de cuestiones se presentan a menudo en el campo de la Economía y, por tal razón, el economista Keynes concibió una teoría probabilística de carácter subjetivo basada en “el grado de creencia racional” que puede tener una persona sobre la ocurrencia o no de un determinado suceso, y de la que ya nos hemos ocupado in extenso en el anterior capítulo 3 de este mismo libro.

Mientras la concepción clásica de la probabilidad tuvo pocas alteraciones, una interpretación completamente distinta comienza a emerger en la literatura especializada. Aunque es dudoso quién fue el primero en introducir la idea de probabilidad en términos de un límite de frecuencias relativas, Keynes da prioridad a Leslie Ellis (1843). Así, Ellis dice que: “si la probabilidad de un suceso dado está correctamente determinada, el suceso de una larga serie de pruebas tenderá a aparecer con una frecuencia proporcional a su probabilidad” Otros autores admiten la prioridad de Bernhard Bolzano (1781-1841) .

Pero la interpretación frecuentista de la probabilidad adquiere su mayor ímpetu en John Venn , lógico inglés, quien en su “Logic of Chances” (1886) da el primer tratamiento sistemático de esta concepción. Como continuadores destacan Cournet y más modernamente Richard von Mises, Reichenbach, R. Fisher, A. Wald y E. Ternier. Todos ellos admiten el siguiente axioma, conocido con el nombre de “límite de Venn”: “Si un suceso ocurre en gran número de veces, entonces la probabilidad de ocurrencia del suceso es el límite cuando el número de pruebas tiende a infinito del cociente entre el número de veces que se presenta el suceso y el número total de pruebas”. Es decir, se postula la existencia de dicho límite.

El pensador francés Cournot (1801-1877) , que era también matemático, filósofo, economista e historiador, a quien se debe el concepto de mediana (“Théorie des chances et de probabilités”, 1843, París), considera la probabilidad matemática como una realidad objetiva e independiente del estado de nuestro conocimiento. Pero no llegó a comprender que debía, como disciplina matemática, cimentarse con una axiomática.

Von Mises (1926) introduce la noción de “colectivo” para caracterizar el concepto de frecuencia relativa; por colectivo entiende una sucesión de un número grande de observaciones idénticas o experimentos, conduciéndonos cada uno de éstos a un resultado numérico determinado y verificando esta sucesión de resultados numéricos las siguientes condiciones:

a) Aleatoriedad.

b) Existencia del límite de frecuencias relativas.

Define a continuación un grupo de operaciones en el conjunto de colectivos de manera que el límite de la frecuencia relativa (probabilidad) sea invariable. Caracteriza también cuando dos colectivos son independientes, etc.

La principal objeción hecha a la teoría de Von Mises es la imposibilidad de construir, por medio de una fórmula matemática, una sucesión (xi), siendo xi un resultado numérico (por ejemplo, 0, 1), en la que la probabilidad esté comprendida entre cero y uno, teniendo en cuenta que esta probabilidad ha de ser la misma para cualquier otra sucesión obtenida a partir de ésta mediante una transformación de las consideradas por Von Mises.

Wald , en su trabajo de 1937, resolvió este problema considerando clases numerables de transformaciones.

E. Tornier introduce una axiomática frecuentista tomando como elementos sucesiones, y considerando en ellas, como conjuntos básicos, los cilindros con segmento inicial fijo. Considera la probabilidad definida sobre un álgebra de Boole que contenga a los cilindros básicos, como una función completamente aditiva en (0, 1). Introduce un axioma de continuidad y concreta que la clase aditiva considerada es la mínima que cumple los axiomas anteriores.

La obra de Reichenbach (1935) es un desarrollo de la de Von Mises, y en varios aspectos presenta un planteamiento mejor. Su interpretación parece estar sugerida por correlaciones estadísticas: supone dos series (x1, x2, ..., xn, ...), (y1, y2, ..., yn, ...) y dos clases A y B. Alguno o todos los x pertenecen a la clase A, y lo que interesa es contestar a la siguiente pregunta: ¿con qué frecuencia los correspondientes y pertenecen a la clase B?. Con su notación:

xi  A → yi  B

La clase A la llama “clase de referencia” y a la B “clase de atributos”. Debemos advertir que es necesario, antes de calcular la probabilidad, que las clases A y B sean observadas y establecer una correspondencia biyectiva o biunívoca entre sus elementos.

Ahora surge la cuestión de cómo se puede determinar la probabilidad; para ello, consideremos los n primeros elementos de las dos sucesiones, y supongamos que entre los n de los x hay a que pertenecen a la clase A y que entre éstos hay b términos tales que los correspondientes y pertenecen a la clase B; entonces, diremos que en la sucesión (x1, x2, ..., xn) la frecuencia relativa de A y B es b/a; en el caso de que todos los x de A, entonces la frecuencia es b/n, y se suele indicar por Fn(A, B). Si tomamos el límite cuando n tiende a infinito, entonces este límite p recibe el nombre de probabilidad de A a B, así:

Observemos que una diferencia entre la teoría de Reichenbach y la de Von Mises es que para aquél no es necesario imponer el axioma de aleatorización, así como el prescindir de la restricción, que él considera excesiva: sucesión parcial del colectivo ha de tender al mismo límite que aquél.

Debemos señalar, por último, que aunque en sentido lógico esta teoría es inatacable, desde el punto de vista práctico es inverificable, ya que ningún ser humano puede llevar a cabo infinitas pruebas o experimentos, puesto que debería vivir también un número infinito de años.