EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA 
UNA APROXIMACIÓN MATEMÁTICA

EL ESTUDIO OPERATIVO DE LA PSICOLOGÍA UNA APROXIMACIÓN MATEMÁTICA

Josep Maria Franquet i Bernis

Volver al índice

 

 

 

 

CAPÍTULO 1. Disquisiciones generales

1. Justificación de la aplicación de las matemáticas al presente estudio

Resulta un hecho indudable que, precisamente, una de las causas que más contribuyen al enriquecimiento y rigurosidad de todas las ciencias y, en general, de multitud de disciplinas, podemos encontrarla en la aplicación de las Matemáticas a su contexto. A casi nadie puede escapar, hoy en día, por otra parte, la perentoria necesidad de dejar a un lado las formas substanciales y las cualidades ocultas, para referir o precisar los hechos naturales a leyes matemáticas.

¿No es bien cierto, para todo aquél que haya profundizado -aunque sólo sea ligeramente- en el estudio de las ciencias exactas, que no puede resultarle difícil reconocer el hecho de que las matemáticas posean, no sólo la genuina verdad, sino la suprema belleza: una belleza fría y tremendamente austera, como una tumba de mármol?

Procuremos, no obstante, dar un breve repaso histórico a la evolución que la aplicación de las Matemáticas ha experimentado a lo largo de la existencia de esta importantísima ciencia social que es hoy objeto de nuestro estudio: la Psicología.

Observemos, de este modo, cómo Fechner, sucesor inmediato de Weber (que publicó en 1840 unos famosos trabajos sobre las relaciones existentes entre los estímulos y las sensaciones) fue quien planteó en primer lugar el problema de si las ciencias objetivas podrían aportar a los problemas del conocimiento del hombre un enfoque verdaderamente útil. Partiendo de esta nueva orientación, llegó a establecer una serie de leyes matemáticas relacionando la intensidad de los estímulos con las respuestas sensoriales (dichas relaciones serán oportunamente contempladas en posteriores epígrafes del presente estudio), con lo que el problema derivado de la necesidad de obtener mensuraciones del comportamiento humano pasa a ser el núcleo de los métodos de la psicología experimental. Más adelante, en este mismo capítulo, tendremos ocasión de ocuparnos de la ley de Weber-Fechner.

La aplicación de ciertas técnicas matemáticas a los estudios psicológicos fue continuada posteriormente por Wundt, Cattell, Bessel (“ecuación personal”) y Galton (que fue el primero en crear procedimientos matemáticos sencillos para aplicarlos a los resultados de sus trabajos experimentales; sus más importantes contribuciones fueron: a) la de la curva de distribución normal que lleva su nombre, y b) sus trabajos dedicados al estudio de las correlaciones).

De hecho, a Galton se le puede considerar como el «padre» de la psicología diferencial, al aplicar los principios de su primo, Darwin, al estudio de las diferencias individuales. Esto se oponía a las ideas psicológicas que más difusión tenían en su época: las de Wilhelm Wundt.

Para algunos, las ideas que propuso Galton supusieron un cisma dentro de la psicología, que obliga a ver las dos corrientes que nacieron como enfrentadas. Otros psicólogos, sin embargo, ven ambas como subdisciplinas integrables. Centró su interés en el estudio de las diferencias individuales de las capacidades humanas, siempre desde una perspectiva adaptativa y biológica. Para ello, se centró en el estudio de los procesos mentales simples.

Las investigaciones de Galton fueron fundamentales, sin duda alguna, para la constitución de la ciencia de la estadística. En este sentido:

• Inventó el uso de la línea de regresión, siendo el primero en explicar el fenómeno de la regresión a la media.

• En los años setenta y ochenta del siglo XIX fue pionero en el uso de la distribución normal.

• Inventó la máquina Quincunx, un instrumento para demostrar la ley del error y la distribución normal.

• Descubrió las propiedades de la distribución normal bivariada y su relación con el análisis de regresión.

• En 1888 introdujo el concepto de “correlación”, concepto éste de singular importancia al que nos referiremos, con mayor especificidad, en el capítulo 9 de nuestro libro.

Inaugurado durante la Exhibición Internacional sobre Salud del año 1884 (International Health Exhibition) y mantenido en funcionamiento durante seis años en Londres, el laboratorio antropométrico le permitió a Galton no sólo recoger una inmensa cantidad de datos, sino además llevar a efecto una práctica profesional bien común en nuestros días: cobrar por los informes que realizaba, siendo el único psicólogo de la época que pudo percibir emolumentos de sus sujetos experimentales en vez de pagarles por acudir a las pruebas. Además, elaboró de esta manera los primeros análisis estadísticos, necesarios para la evaluación de los datos recogidos en su investigación.

Galton pensó en aplicar la selección artificial al ser humano para mejorar la raza, formalizándose así, por primera vez, la teoría de la eugenesia. Las repercusiones del movimiento eugenésico no tardaron en llegar. Éstas y otras teorías similares sirvieron de base a los ideales de superioridad de raza, como los del nazismo alemán, pero también tuvieron gran aceptación en el resto de Europa y en los Estados Unidos. La práctica de la eugenesia se reflejó en la limpieza étnica, así como en la esterilización de personas con discapacidad intelectual, delincuentes, pobres o enfermos mentales.

La dicotomía clásica existente entre herencia y medio ambiente, o entre Innatismo y Aprendizaje, fue enunciada por primera vez por Galton en la forma Nature/Nurture. A menudo se ha visto esta idea como generadora de polos enfrentados entre los que no cabían posiciones intermedias. Hoy se visiona más como una gradación de elementos influyentes. Galton subrayaba que la propia naturaleza o conjunto de dotaciones innatas del individuo era un factor determinante del éxito en la vida. Para demostrarlo, estudió a una serie de hombres eminentes. Comprobó que los padres que presentaban características sobresalientes tendían a tener hijos con iguales características, y pensó que esto debía explicarse fundamentalmente en función de la naturaleza (cualidades congénitas) y no de la crianza (cualidades adquiridas). Con el objeto de someter a un análisis riguroso los datos por él recogidos, contrató al matemático Karl Pearson, inventor de un procedimiento de análisis estadístico descriptivo denominado «coeficiente de correlación», muy empleado en una variedad de situaciones de investigación.

A Galton le preocupaba, además, la medición de la inteligencia, y propuso una técnica conocida como el «Método biométrico», que consiste en evaluar ciertas características físicas, como la fuerza con que se aprieta el puño, la circunferencia del cráneo y el tiempo de reacción refleja. Si bien hoy el método biométrico ha perdido crédito, aún tiene cabida en la biología, las investigaciones sobre ejercitación física y la psicología fisiológica.

Puede decirse que el eje en torno del cual giró toda la obra de Galton fue su aseveración de que la herencia o genotipo importa más que el medio. Aunque esta concepción general fue perdiendo popularidad entre los científicos de la conducta a lo largo del siglo XX, en los últimos tiempos ha recobrado alguna vigencia.

Sin embargo, fue Karl Pearson , gran matemático inglés, discípulo de Galton, quien acabó de establecer la fórmula para la obtención de un coeficiente de correlación que permitiera medir el grado de concordancia o discordancia entre dos fenómenos, o de dependencia o independencia entre dos variables aleatorias estadísticas. Pearson fue quien desarrolló y sistematizó gran parte de los métodos estadísticos cuya utilización fue exclusiva durante un considerable número de años.

Un nuevo avance en este dominio fue aportado por Fischer, estadístico británico que abrió nuevas posibilidades al análisis de los datos experimentales, poniendo a punto la técnica del análisis de la varianza o variancia y covarianza, que permite la investigación simultánea de los efectos de varias variables sobre un único dato experimental. Dichos derroteros esperanzadores fueron seguidos por Spearman , Burt, Thurstone, Stouffer y Guttman (estos últimos elaboraron modelos matemáticos de psicología social), que utilizaron numerosos diseños experimentales. De hecho, Charles Spearman realizó importantes aportaciones a la psicología y a la estadística, desarrollando el Análisis Factorial al que nos referiremos posteriormente, con mayor especificidad, en el capítulo 9 de nuestro trabajo. Gracias a él propuso la existencia de un factor general de la inteligencia, que subyace a las habilidades para la ejecución de las tareas intelectuales. A esta teoría de la inteligencia la denominó “Teoría Bifactorial”, ya que la inteligencia se compondría tanto del 1) factor general (g), que sería hereditario o congénito, e intentó comprobar que correspondía a una propiedad específica del cerebro, una suerte de energía mental a nivel de la corteza cerebral, que varía de un individuo a otro, pero se mantiene estable a través del tiempo; así como del 2) factor específico (S), que representa la habilidad específica de un sujeto frente a determinada tarea, que también tendría una localización especifica en el cerebro. Por lo tanto, si bien la inteligencia es hereditaria en cuanto a su Factor g, es posible que la educación o aprendizaje tengan importante incidencia en el Factor S.

De hecho, una de las técnicas más útiles para aumentar la sensibilidad de un experimento es programarlo de tal forma que la variación total de la variable en estudio pueda separarse en componentes que sean de interés o importancia experimental. Descomponiendo la variación total de esta manera, el investigador puede utilizar métodos estadísticos para suprimir los efectos de ciertas variables que interfieren y aumentar así la sensibilidad de su experimento. El análisis de la variancia es una técnica utilísima para llevar a cabo el análisis de un experimento programado desde este punto de vista.

Al programar un experimento, el psicólogo investigador, por lo general, piensa en la verificación de una hipótesis o en la estimación de algunos parámetros. Aunque el análisis de la técnica de la variancia permite al experimentador programar experimentos sensibles para uno u otro de estos problemas básicos, la explicación de la técnica se hace mayormente desde el punto de vista de la verificación de hipótesis.

Hoy en día, la Estadística se aplica en Psicología en el estudio objetivo del comportamiento, de la inteligencia, de las opiniones, ... Por otra parte, no solamente se emplea para la comprensión correcta de los diversos problemas que plantea la psicometría, sino incluso para poder entender los más sencillos resultados de las exploraciones psicométricas e interpretarlos correctamente. Resulta, pues, indispensable un conocimiento -por somero que éste sea- de los conceptos estadísticos más fundamentales.

Veamos, en fin, que el empleo de las Matemáticas y de la Estadística en Psicología es muy ventajoso, puesto que constituye un medio de expresión riguroso y de claridad excepcional, máxime en aquellos casos en que el lenguaje ordinario resulta impotente para describir la compleja trabazón fenomenológica, no existiendo equivalentes verbales manejables.

Por doquier puede observarse que el poder del número se respeta tanto más cuanto menos se comprende. Pero ocurre también, en ocasiones, que el empleo de la alta matemática resulta un refinamiento inútil y superfluo, complejo y dispersivo, algo así como “cazar perdices a cañonazos”. Por ello, la utilización del método matemático en Psicología constituye un poderoso instrumento analítico -de lo que debe ser consciente el psicólogo- que debe aplicarse en todos aquellos casos en que resulte conveniente, pero sin olvidar, al respecto, aquella famosa frase de Fournier que reza así: Las matemáticas carecen de símbolos para las ideas confusas.