Introducción al análisis de datos difusos
Antonio Morillas Raya

INTRODUCCIÓN

 

Cuando se oye hablar por primera vez de la "lógica difusa" (fuzzy logic) o, incluso, para quiénes han oído hablar algo sobre este tema, pero son profanos en la materia, se produce una inmediata tentación de hacer una pequeña gracia a costa de su propio nombre: debe ser algo "poco claro", quizás "nada elaborado"; muy "borroso", en definitiva. Estos son el tipo de comentarios que suelen hacerse. Sin embargo, la aparente contradicción interna de su propio nombre no ha sido un inconveniente para un amplísimo desarrollo teórico y una, más reciente, aplicación de la lógica difusa al campo de la ciencia, la tecnología e, incluso, al análisis empírico en las ciencias sociales. Y es que, como dice su impulsor, el profesor Lotfi A. Zadeh, "there is nothing fuzzy in fuzzy logic". Por el contrario, hay un soporte matemático poderoso detrás de la misma.

Se ha señalado (1) que los antecedentes filosóficos pueden encontrarse en los trabajos de Bertrand Russell, Jan Lukasiewicz y Max Black, que ante las paradojas encontradas en la lógica tradicional, comenzaron a hablar de lógica multivalente y lógica continua, introduciendo, así, en la naturaleza blanco/negro (verdad/falso) de aquélla, las sombras de gris inherentes al mundo real. La idea de que cualquier afirmación lógica debe ser cierta o falsa, y ninguna otra cosa (ley del medio excluído), podía producir paradojas como la planteada por Russell (2), y a pesar del intento de obviarlas introduciendo los "axiomas de la teoría de conjuntos" para generar fórmulas "bien definidas", choca con la evidencia de que en la vida cotidiana son admisibles grados de verdad. Paradojas como la mencionada sólo podían ser resueltas en el contexto de la lógica continua. Posteriormente, Zadeh (1965) desarrolló la teoría de conjuntos multivaluados, ampliándola con el concepto de cuantificador, e introdujo el término fuzzy para denominar la vaguedad (3), la falta de contornos bien definidos, de estas estructuras lógicas.

Por ejemplo, supongamos que hacemos la siguiente sentencia: "El Sahara es un desierto". Evidentemente, la totalidad de la gente estaría de acuerdo en decir que eso es cierto. Supongamos que quitamos un grano de arena. Si volvemos a preguntar, se continuaría diciendo que es cierto. Si continuamos así, quitando grano a grano, y continuamos preguntando, llegaría un momento en que no habría más arena y el Sahara ya no sería un desierto. Si preguntamos ahora, la respuesta debiera ser que es falso. Pero, ¿en qué momento se produce, exactamente, el cambio del "sí" al "no"? Evidentemente, un desierto no deja de serio cuando se le quita un particular grano de arena. Es más real afirmar que conforme el Sahara pierde arena, la afirmación de que es un desierto va haciéndose menos verdad y que al quitar el último grano, la verdad desaparece por completo. La lógica continua reconoce el hecho de que la realidad no tiene por qué ser sólo cierta o falsa, sino que puede haber grados de verdad. Dicho de otra forma, los elementos de un conjunto no tienen por qué estar completamente dentro o completamente fuera del mismo; es posible la pertenencia parcial, un grado de pertenencia, de un elemento a un conjunto dado.

Como se verá más adelante, la lógica tradicional queda incorporada como un caso particular de la lógica continua o difusa. En este sentido, podría decirse que la lógica difusa es una extensión de un sistema preciso de representación para incluir la vaguedad y la incertidumbre. La vaguedad ya no es el límite de la precisión sino, al contrario, ésta es el límite de aquélla (4). Su aplicación se ha visto que es beneficiosa, e incluso necesaria, en varios campos (fundamentalmente relacionados con la ingeniería y la informática) entre los cuales pueden contemplarse los sistemas en que la vaguedad es bastante común, como podría ser el caso de la economía.

Este curso introductorio pretende hacer una primera aproximación al análisis de datos difusos, que concebido en términos amplios incluiría un conjunto de técnicas estadísticas cuya formulación en términos difusos sobrepasaría con creces los objetivos del mismo. De cualquier forma, como nuestro interés se centra muy particularmente en el cálculo difuso, no habrá más que las referencias imprescindibles a la lógica difusa y no iremos mucho más allá de la aritmética difusa elemental y algunas otras cuestiones que nos puedan permitir la realización de algunas aplicaciones con interés para la economía y la empresa, en la línea del libro de Kaufmann y Gupta (1.988). Se trata, por tanto, de un primer paso en un proyecto de difusión de esta metodología entre los estudiosos de dichas materias, que confiamos poder ampliar en un futuro inmediato.

Como se sabe, el análisis de datos consiste en investigar un conjunto dado de datos, con el objeto de extraer conclusiones de la información recogida y evaluada en forma adecuada. Podríamos decir que el análisis de datos consta de varias etapas de complejidad creciente:

1. En la primera etapa, que sería el análisis de frecuencias, se investigan los     datos en relación a alguna característica o propiedad común. Es el punto de partida para evaluar la validez y fiabilidad de cada dato, detectar mediciones extrañas (por ejemplo, outliers), etc.

2. El segundo paso consiste en el reconocimiento de formas o patrones (pattern cognition), que consiste en buscar estructuras internas en los datos, con objeto de obtener información sobre las relaciones existentes entre ellos o para detectar posibles modelos matemáticos a los que pudieran obedecer.

Estos dos primeros pasos forman lo que suele llamarse el análisis exploratorio de datos. Los datos se investigan sin referencia alguna a un modelo matemático predefinido.

 3. En un tercer paso, los datos se investigan en relación a algún modelo    matemático elegido previamente o de algunas hipótesis emitidas sobre la estructura de los datos. Los análisis pueden ser cualitativos o cuantitativos y podrían contemplarse técnicas que van desde el análisis cluster (técnicas de clasificación de datos, en general) a los métodos estadísticos de regresión.

4. Por último, el análisis de datos se ocupa de extraer conclusiones y de evaluarlas convenientemente. Generalmente, las conclusiones más demandadas toman la forma de una predicción acerca de datos perdidos o futuros.

Puede decirse que esta es una clasificación un tanto simplista, pero lo que realmente se persigue es poner de manifiesto que, en cualquiera de esos estadios, es posible encontrarse con incertidumbres de diferentes clases. Desde el primer momento de observación o medida de la característica de una variable que deseamos estudiar, hasta la aplicación de los métodos de análisis, podemos detectar fuentes de incertidumbre.

Una primera fuente de incertidumbre surge de la variabilidad de los datos. Es la propia naturaleza no determinista de los hechos sociales y naturales la que, afortunadamente, propicia tal variabilidad. Otra clase de incertidumbre es la imprecisión que surge al observar o medir los valores de una variable, tanto por parte del instrumento de medida, como por parte del observador que la realiza. Por último, la vaguedad aparece cuando se utiliza el lenguaje humano, sea o no profesional, para describir la observación o medida del resultado de un experimento como un dato. Esto es especialmente cierto cuando se trabaja con opiniones de expertos que se traducen en expresiones verbales que, posteriormente, han de ser tratadas como modalidades de una variable (variables lingüísticas).

Evidentemente, de entre las formas más conocidas para hacer frente al tratamiento de la incertidumbre está la teoría de la probabilidad. Hay quién, incluso, defiende que la lógica continua puede ser contemplada dentro de esta teoría. Sin embargo, hay, al menos, dos dificultades para considerar que eso puede ser así. En primer lugar, la probabilidad trata de la incertidumbre en la ocurrencia de sucesos bien definidos, mientras que la lógica continua trata del grado de ocurrencia de sucesos mal definidos. En segundo lugar, es un hecho matemático que la intersección de un conjunto con su complementario es siempre el conjunto vacío; por el contrario, trabajando con conjuntos difusos esto casi nunca sucede, como veremos más adelante.


1 Yéase, Kosko, B.(1992):Neural networks andfuzzy systems. Prentice Hall. pp. 2-11.

2 "El conjunto de todos los conjuntos no miembros de sí mismos es un miembro de sí mismo". Si esta expresión es cierta, entonces sería falso; si es falsa, entonces sería verdad.

3 Zadeh(1978;p. 395), distingue entre los términos vague y fuzzy. Por ejemplo, "Juan regresará en unos pocos minutos" sería fuzzy (impreciso, pero informativo), mientras que "Juan regresará alguna vez" sería vague (ambiguo, no informativo). En el primer caso hay información que puede servir de soporte para una decisión y en el segundo no. En español se les ha bautizado con el nombre de conjuntos borrosos o difusos. Algunas asociaciones de estudiosos del tema en nuestro país han preferido no dar ninguna traducción al término, llamándole lógica fuzzy. Probablemente, Zadeh está queriendo señalar una estructura "blanda", "suave", "ligera", no rígida (crispy) en su definición, pero no por ello vaga o ambigua. Quizás, menos preocupado del análisis cuantitativo exacto y, por el contrario, más atento a la aceptación de la imprecisión en el mundo real, especialmente, en la percepción y el pensamiento humanos, y al cálculo "blando" (soft computing).

4 Trías, E. (1.995; p.40).


Google
 
Web eumed.net

 

Volver al índice de Introducción al análisis de datos difusos

Volver a "Libros Gratis de Economía"

Volver a la "Enciclopedia y Biblioteca de Economía EMVI"