Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras

Loading...
Thumbnail Image
Date
2021
Journal Title
Journal ISSN
Volume Title
Publisher
Universidad Católica San Pablo
Abstract
El gran éxito de las redes neuronales profundas (DNN) incide sobre su capacidad de aprender características automáticamente aminorando la supervisión humana. No obstante, dicho éxito viene acompañado de la gran cantidad de datos necesarios para entrenar los modelos profundos. Por ejemplo, para que un modelo profundo aprenda a distinguir gatos de perros se necesitan cientos de miles de imágenes. Recientemente, una área del aprendizaje automático denominada meta aprendizaje ha recibido especial atención, cuyo principal objetivo es conseguir que los modelos profundos sean capaces de reutilizar experiencia aprendida en diferentes tareas para aplicarla en el aprendizaje de una nueva tarea, lo que en consecuencia debería otorgarle al modelo profundo la habilidad de aprender nuevas tareas a partir de pocas muestras. En respuesta a ello, en la literatura se han planteado algoritmos que son capaces de generalizar diferentes tareas con una sola muestra de entrenamiento. Sin embargo, aún adolecen de una baja tasa de exactitud. Motivo por el cual, en este proyecto de tesis se introduce un mecanismo de regularización con el objetivo que ayude a maximizar la generalización de las tareas. Nuestros experimentos han mostrado que nuestro método de regularización propuesto alcanza resultados competitivos respecto al estado del arte.
Description
Citation