viernes, 24 de marzo de 2017

Vídeo Nº 161: IA Grafos - Procesos de Decisión de Markov 02

Definición de un Porceso de Decisión de Markov, en especial el modelo de transición basado en probabilidades, la función recompensa que permitirá calcular la utilidad, y la política, que es el objetivo de todo MDP, una relación entre cada estado y la mejor acción que podemos ejecutar en él. También se comentará cómo definir recompensas y qué diferencias hay entre los diferentes tipos de recompensas que existen.



miércoles, 22 de marzo de 2017

Vídeo Nº 160: IA Grafos - Procesos de Decisión de Markov 01

Primer vídeo sobre los Procesos de Decisión de Markov (MDP) en el que se explica el algortimo ExpectiMax, que es la base para dichos procesos. Se verán las ventajas y desventajas que tiene este enfoque y se explicará en profundidad la suma ponderada de utilidades según la probabilidades de que ocurran.



lunes, 20 de marzo de 2017

Vídeo Nº 159: IA Probabilidad - Redes de Decisión

Ampliación de las redes bayesianas con nodos especiales para tratar decisiones y utilidades de esas decisiones, que permite realizar toma de decisiones con redes bayesianas como alternativa a los Procesos de Decisión de Markov, que se basan en búsqueda en grafos. Se muestra, además, como integrar el uso de la teoría de la información para escoger el orden en que se irán adquiriendo las evidencias.



viernes, 17 de marzo de 2017

Vídeo Nº 158: IA Grafos - Teoría de la Información

Introducción a la teoría de la información y cómo se usa dentro de los algoritmos de toma de decisiones en IA. Definición del Valor de la Información Perfecta como comparación entre utilidad esperada antes y después de obtener una evidencia, su uso para ordenar las evidencias a obtener y ejemplo.



miércoles, 15 de marzo de 2017

Vídeo Nº 157: IA Grafos - Teoria de la Utilidad

Vídeo introductorio sobre la teoría de la utilidad, piedra angular de la toma de decisiones, y cómo se usa dentro de la inteligencia artificial para pasar de agentes basados en objetivos a agentes basados en utilidad. Se verá cómo definir funciones de utilidad y cómo calcular sus valores, así de una explicación de porqué la maximización de la utilidad esperada es la mejor forma de definir la racionalidad o inteligencia.



lunes, 13 de marzo de 2017

Vídeo Nº 156: IA Probabilidad - Modelos Ocultos de Markov 14

Cuando se trabaja con entornos continuos, en vez de discretos, no se pueden usar Modelos Ocultos de Markov. En este vídeo se explican los Filtros Kalman, que permite realizar los mismos cálculos que con los HMM pero usando funciones gaussianas, realizando inferencia mediante la aplicación de funciones lineales a la media.



viernes, 10 de marzo de 2017

Vídeo Nº 155: IA Probabilidad - Modelos Ocultos de Markov 13

Explicación completa del Filtrado de Partículas, un método de inferencia aproximada para redes bayesianas dinámicas, alternativa a los Modelos Ocultos de Markov cuando hay demasiados estados. Explicación mediante ejemplo y pseudocódigo.



miércoles, 8 de marzo de 2017

Vídeo Nº 154: IA Probabilidad - Modelos Ocultos de Markov 12

Introducción a las redes bayesianas dinámicas, una generalización de los Modelos Ocultos de Markov que permite datos continuos y grandes cantidades de estados. Se mostrará un ejemplo y se explicará cómo realizar inferencia con las mismas.



viernes, 3 de marzo de 2017

Vídeo Nº 152: IA Probabilidad - Modelos Ocultos de Markov 10

Se explica cómo obtener la secuencia de sucesos más probable ocurrida a partir de la secuencia de evidencias recopiladas. A este tipo de inferencia en modelos temporales de redes bayesianas se le denomina Explicaócin Más Probable y es la última de las inferencias en Modelos Ocultos de Markov que queda por ver. Se usarán dos algoritmos: enrejado de estados y algoritmo de Viterbi.