Vamos a enumerar las principales leyes lógicas que nos permiten trabajar sobre expresiones complejas con varias proposiciones. Básicamente son leyes que rigen la Lógica Proposicional. Las enumeramos agrupadas según el número de proposiciones, añadiendo un último bloque con las condicionales.
La lista de leyes está basada en el primer capítulo del libro «Lenguaje matemático: conjuntos y números» de los autores Miguel Delgado Pineda y María José Muñoz Bouzo.
En este ejercicio vamos a estudiar como se relacionan modelos a priori estancos como un simple Bernouilli con la distribución exponencial. Como pensando en sucesos singulares, que se repiten en el tiempo, podemos llegar a entender la distribución de los tiempos de espera entre esos sucesos. Empecemos…
En este trabajo vamos a estudiar las dos aproximaciones más conocidas en los métodos de inferencia estadística: el método bayesiano y el frecuentista. Un búsqueda rápida en Google confirma el gran número de interesantes discusiones al respecto. Personalmente me decanto por el Bayesiano, al final de este trabajo explicaré por qué.
Vamos a preparar un script que nos permita evaluar las variaciones que hay en los cambios de moneda, y nos de una idea de que riesgos estamos corriendo cuando fijamos los cambios. Las series históricas las sacamos de la libreria https://pypi.org/project/investpy/ (construída por Álvaro Bartolomé del Canto @alvarob96 at GitHub) que obtiene los datos de la web de información financiera http://www.investing.com
Empecemos con el uso «estandar» del Teorema. Lo vamos a aplicar a un problema clásico, el de las bolsas con bolas de colores:
Sean dos bolsas indistinguibles, la primera, llamémosla bolsa 1, tiene 4 bolas verdas y una bola roja, la segunda, llamémosla bolsa 2, tiene 2 bolas verdes y tres bolas rojas. Se elije al azar una de las bolsas y obtenemos una bola verde, ¿qué probabilidad hay de que esta venga de la bolsa 1?
Por casualidad me encontré con la llamada Paradoja de Simpson, y desde el primer momento, y como buena paradoja, me llamó la atención. Me propuse escribir una entrada en el blog sobre ella. Buscando por la web encontré muchísimos artículos al respecto, de los que destaco varios en Medium, aquí y aquí por ejemplo, todos muy buenos y explicativos. Y en uno de ellos conocí al autor Judea Pearl….y vaya descubrimiento. Lo que, a priori, me pareció un entretenido juego de números explotó y me permitió descubrir la disciplina (¡o ciencia!) de la «causal inference». Empecé leyendo (y tratando de entenderlos en su totalidad!) sus papers, aquí y aquí, el segundo bastante más técnico al basarse en su libro (Causality: Models, Reasoning and Inferencies, 2000) y sobre todo el capítulo 6 de su último libro (The Book of Why, 2019). Libro que comprende una explicación muy asequible de los modelos que el autor ha ido desarrollando durante su carrera. Sin haber leído estas referencias no podríamos más que hablar de un números y las curiosidades de las fracciones resultantes de suma de otras, pero ahora podemos enfocar la explicación, aún siendo simple, de una manera más «científica»…vamos con ello.
Es inherente a los algoritmos de IA sufrir un sesgo que llevado a los extremos puede reforzar la discriminación en determinados entornos, y forzar decisiones injustas. Explicaremos la base teórica, en un modelo muy simplificado, de este sesgo y añadiremos algunos ejemplos reales. Y veremos como se intentar evitar tanto desde el punto de vista legal como desde el punto de vista más técnico. Tanto los organismos responsables de la UE como muchas de las empresas del sector están lanzando recomendaciones para el diseño y operación de los algoritmos de decisión. De estas expondremos las más relevantes, que nos han de servir como guía a la hora de construirlos.
Debe estar conectado para enviar un comentario.