Hemos dicho en varias ocasiones que los conjuntos difusos, las teorías difusas, nos permiten modelar la incertidumbre. Este video se refiere a ese concepto de incertidumbre y, en particular, a la incertidumbre a la hora de intentar predecir el futuro para tomar alguna decisión. Es un concepto bastante amplio, el que hay muchas formas de acercarse a él. Yo voy a utilizar dos formas de acercarme. Primero, una clasificación realizada en una tesis de maestría desarrollada en la Universidad Nacional por el ingeniero Néstor Camilo Gómez, cuando abordaba el problema de evaluación de impacto ambiental. Y luego, me aproximaré a este problema a través de la teoría de la evidencia, un concepto matemático del que vamos a hablar próximamente. Néstor Camilo, a la hora de intentar identificar todas las fuentes de incertidumbre en un fenómeno complejo, como el de la evaluación de impacto ambiental, logró una clasificación. La clasificación de esas fuentes de incertidumbre, es decir, las razones por las cuales mis predicciones no son exactas, las distingue él, primero, en dos momentos, el momento de construir un modelo y en el momento de utilizar ese modelo en una situación en particular. Palabras más, palabras menos, la forma de trabajo de la ciencia tiene dos momentos, observamos la realidad y construimos una descripción de la realidad, un modelo de esa realidad, para luego utilizar ese modelo en otras situaciones. Esa es la clasificación que se hace aquí. Hay unas fuentes de incertidumbre a la hora de construir el modelo matemático, a la hora de representar el modelo en general, y otras fuentes de incertidumbre surgen en el momento de describir la situación en la que voy a utilizar ese modelo. Y a la hora de hacer esa aplicación concreta, entonces hay tres escenarios distintos de fuentes de incertidumbre, clasificadas todas estas siguiendo las ideas de Néstor Camilo. La incertidumbre respecto al fenómeno modelado. Es decir, el fenómeno físico, natural, etcétera, en la manera en que yo lo describí. Pero luego, a la hora de utilizar ese modelo en una situación concreta, y la otra fuente de incertidumbre es la información que utilizo para alimentar ese modelo. Expliquemos cada uno de estos tres escenarios. Primero, frente al fenómeno modelado como tal. Se pueden identificar por lo menos estas fuentes de incertidumbre. Elementos aleatorios, es decir, cosas que no quedaron incorporadas en mi descripción del modelo. Cosas que suceden por fuera de la construcción, digamos, matemática que hice de ese fenómeno. O falta de correspondencia entre mi descripción y el fenómeno como tal. Caso típico, algún modelo lineal de un fenómeno que tiene un comportamiento no lineal, no hay una característica, una relación entre esas dos cosas, el fenómeno como tal y el modelo que yo construí. Y la sensibilidad a los parámetros del modelo. Cada modelo utiliza parámetros y, en particular, hay cierto tipo de sistemas que son muy sensibles a los parámetros. Algunos de los fenómenos denominados caóticos tienen esa particularidad. Y yo necesito conocer los parámetros del modelo. Y si cambia un poquito, es probable que el modelo sea muy diferente al que tenía pensado. Hay otras fuentes de incertidumbre que están asociadas al momento de utilizar ese modelo. Identificamos estas cinco, por ejemplo. El contexto en que se usa el modelo. Todo modelo tiene un rango de validez y si yo excedo ese rango de validez, si lo llevo a un contexto distinto para el que fue diseñado ese modelo, puedo estar incluyendo fuentes de incertidumbre. En ocasiones debo combinar información numérica cuantitativa con información cualitativa, por ejemplo, en términos de adjetivos. Y esa descripción cualitativa hace que se incorpore de manera diferente al modelo, en particular, por la subjetividad de cada persona, cómo interpretar un adjetivo. Pero también, en ocasiones, hay una intencionalidad en el uso del modelo. Por ejemplo, una intencionalidad política para describir una situación económica o una situación ambiental. Y eso genera sesgos, que son otras fuentes de incertidumbre, de imperfección en nuestra capacidad de predicción. Y la sensibilidad a las condiciones iniciales. De nuevo, ciertos sistemas, por ejemplo, algunos de los sistemas caóticos son tremendamente sensibles a las condiciones iniciales. Y si yo no las conozco plenamente, la incertidumbre a futuro será muy grande. Y hay otras fuentes de incertidumbre asociadas con la información como tal. Información errónea, tengo un valor y resulta que es otro. O información imprecisa, porque es vaga, es ambigua o tiene algún determinado sesgo. O información que incluye incertidumbre. Todas estas fuentes de incertidumbre en mi capacidad de predicción son las que dan sentido pleno al principio de incompatibilidad de Zadeh. Porque conforme crece la complejidad de un fenómeno, aparecen muchas más fuentes de incertidumbre de tipos muy distintos. Y con esa incertidumbre como tal, baja mi capacidad para hacer afirmaciones categóricas. Y si llego a hacer esas afirmaciones categóricas, carecen de sentido por la complejidad. Y la complejidad tiene que ver con todas esas fuentes de incertidumbre. ¿Para qué sirven entonces los conjuntos difusos de todas esas fuentes de incertidumbre? Solamente para representar de forma más adecuada la imperfección de la información y, en particular, la imprecisión de la información. Son poderosas herramientas para estos elementos. Pero no ayudan a resolver los otros problemas de incertidumbre. Bueno, espero que ustedes también hayan pensado que la probabilidad debe tener algo con esto. Total, la teoría de probabilidad está muy relacionada con el manejo de la incertidumbre. A partir de este momento, vamos a hacer una presentación del paralelo que hay entre el uso de probabilidad y el uso de técnicas difusas. Vamos a hacerlo a la luz de un concepto que es la teoría de la evidencia. La teoría de la evidencia es, digamos, una rama de la matemática construida en la segunda mitad del siglo XX para intentar, entre otras cosas, construir una forma de manejo de la incertidumbre como tal. ¿Qué evidencia tenemos? Es la preocupación de la teoría de la evidencia. ¿Y cómo puedo utilizar la evidencia de un fenómeno para hacer predicciones? La teoría de la evidencia utiliza muchas medidas, unas, por ejemplo, son la de probabilidad. Pero hay otras, solo las menciono aquí, creencia, plausibilidad, necesidad, posibilidad, etcétera. Y utiliza esos conceptos para desarrollar todo su andamiaje, dentro de la evidencia se construye la teoría de la probabilidad y la teoría de la posibilidad. La teoría de la probabilidad entonces queda enmarcada en la teoría de la evidencia y la teoría de la posibilidad también. Estas dos teorías, probabilidad y posibilidad, se cruzan entre sí. Y la teoría de la posibilidad utiliza conjuntos difusos para representar la evidencia que tenemos de un fenómeno. Vamos a utilizar la p para hablar de probabilidades y la letra pi para hablar de posibilidades. Un paralelo entre las dos simplemente para mencionar que se parecen pero son muy distintas conceptualmente. Ambas dan una medida de la evidencia que tenemos de un fenómeno en el rango 0, 1. Tenemos un universo de discurso y la probabilidad es un número entre 0 y 1; la posibilidad también. La posibilidad es el grado de pertenencia a un conjunto difuso, entonces está en el intervalo 0, 1. Hasta ahí se parecen. Pero empiezan las diferencias. Cómo se construye Una distribución de probabilidad. ¿Cómo se construye una distribución de probabilidad? El cual puede evidencia para construirlo es distinto. Para construir una distribución de probabilidad, utilizamos lo que pasa en cada caso como Singleton. El ejemplo del dado, caso lanzar uno, caso lanzar y que salgan dos, son casos individuales. Mientras que la teoría de la posibilidad, permite construir el cuerpo de la evidencia, a partir de conjuntos de elementos, conjuntos de sucesos. En la teoría de probabilidad para construir la probabilidad de un conjunto, analizamos lo que pasa en cada uno de los elementos pero lo trabajamos en forma distinta. La suma de probabilidades y el máximo de las posibilidades. Entonces empiezan las diferencias matemáticas, no las vamos a explorar, solo las vamos a mencionar. La normalización, la probabilidad de todos los fenómenos es uno. La posibilidad de todos los fenómenos es uno. Pero uno se obtiene por la suma y el otro por el máximo como tal. La aditividad you ahora de dos conjuntos que se interceptan también se calculan de forma muy distinta. Y un resultado interesante frente a los complementos. La probabilidad de un suceso y de que no suceda ese suceso al sumarlas da 1. La posibilidad, no. El principio del tercer excluido, se cumple en la teoría de probabilidad y no forma parte de la teoría de la posibilidad. Otro resultando muy interesante a la hora de comparar estas dos teorías tiene que ver con la ignorancia total. Yo no sé nada. Si yo no sé nada, nos dice la teoría la teoría de la probabilidad, debe asignar una distribución de probabilidad homogénea y el valor de esa probabilidad para cada caso, es uno sobre la cardinalidad del universo del discurso. Bien en la teoría de la posibilidad se asigna el valor uno a todos los elementos. Y eso tiene consecuencias interesantes. ¿Qué pasa si hay ahora una ampliación del universo de discurso? Ahora hay más elementos. En la teoría de la probabilidad debo disminuir el valor de probabilidad y en la teoría de posibilidad se mantiene como uno. Una forma de interpretar probabilidad y posibilidad, esa gráfica intentar hacerlo. Tenemos el mismo universo de discurso y hemos construido una distribución de probabilidad en rojo. Gracias a la evidencia que teníamos, pudimos construir esa distribución de probabilidad. Si es probable es porque es posible. Entonces observen que todos los elementos cuya distribución de probabilidades mayor que cero o significamente mayor que cero, tienen posibilidad de ocurrencia 1. Y esa es una forma de interpretar la relación entre posibilidad y probabilidad. Total son dos formas de manejar la incertidumbre. ¿Cuál es la más adecuada? Bueno depende de cuál es la evidencia que tengo para construir un modelo de esa incertidumbre. Por esa razón a la hora de intentar seleccionar, cuál de las dos aproximaciones, teoría de probabilidad, teoría de posibilidad, ¿Cuál de las dos aproximaciones es mejor? Deberíamos preguntarnos ¿Cuál es la evidencia que tengo para hablar de esa incertidumbre? you que hay unas preocupaciones que nos llevan a seleccionar distribuciones de posibilidad, conjuntos difusos en lugar de distribuciones de probabilidad. La primera, en muchas ocasiones, no tengo evidencias suficientes para poder construir una distribución adecuada, sino que tengo un conocimiento relativamente escaso sobre algún fenómeno, pero no tengo los datos para poder seleccionar una distribución frente a la otra o conocer con total precisión sus parámetros. Otra situación, las probabilidades subjetivas. Lo vemos a toda hora, los expertos dicen que la probabilidad de ocurrencia del fenómeno tal es del 30%. Mucha veces ese 30% significa lo que cree ese experto. No es que tenga una colección de evidencia numérica que le haya dado para obtener ese resultado, sino que gracias a su experiencia previa, gracias a sus conocimientos, por eso se llama experto, él considera que la probabilidad de ocurrencia de algo es del 30%. Pero le pregunta a otro experto y le da un número diferente, son probabilidades subjetivas. Bueno realmente en esas ocasiones es posible también utilizar los conjuntos difusos para representar ese conocimiento con mayor sensatez. Y las descripciones cualitativas. Cuándo tenemos situaciones descritas por adjetivos, utilizar la distribución de probabilidad para ello no tiene mayor sentido, aunque cuando se puede hacer. Pero son dos herramientas para abordar la incertidumbre. Debemos de escoger la más adecuada en nuestro caso. Dicho eso en este curso seguiremos trabajando sobre el mundo de la posibilidad con los conjuntos difusos. Muchas gracias