La Importancia de comprender el funcionamiento interno de los modelos inteligentes que construimos

Expositor:

José Oramas obtuvo en 2015 su doctorado en Centro de Procesamiento de Imágenes y Voz de la Universidad Católica de Lovaina – Bélgica, donde tuvo la oportunida de investigar cómo interactúan los elementos visuales en imágenes y cómo se pueden explotar las relaciones entre ellos, para mejorar los problemas de percepción visual artificial. Sus intereses de investigación están relacionados con los modelos exploratorios/explicativos que puedan identificar representaciones intermedias, informativas y de ahí usarlas como medios para justificar las predicciones que hacen estos modelos. Desde octubre 2019 forma parte del laboratorio Internet Data (IDLab) en la Universidad de Amberes, como profesor asistente trabajando en: Visión por computador, aprendizaje autónomo y su representación, modelos de interpretabilidad y explicabilidad, aprendizaje basado en múltiples instancias y clasificación colectiva. José es graduado de la FIEC – ESPOL.

Descripción:

En la última década, disciplinas relacionas a Inteligencia Artificial y Aprendizaje Autónomo han experimentado un progreso significativo. En el aspecto teórico, esto ha llevado al desarrollo de modelos para la exploración de nuevas ideas y problemas fundamentales. En el aspecto práctico, modelos de alto rendimiento han sido desplegados en varias aplicaciones para resolver problemas reales. Aún cuando esto es positivo para el campo, en algunos casos el desarrollo y entrenamiendo de estos modelos se ha enfocado en optimizar su rendimiento de forma cuantitativa. Consecuentemente, menos atención se ha dado a su funcionamiento interno. En esta charla, conversaremos sobre los problemas causados por estas prácticas. Adicionalmente, José mostrará algunos ejemplos del valor agregado que puede traer el entendimiento del funcionamiento interno de estos modelos a varios problemas de visión por computador.

 

Grabación

fecha_charla_hablemos: 
Jueves, Febrero 3, 2022