Tesis - Maestría en Ciencias de la Computación
Permanent URI for this collection
Browse
Browsing Tesis - Maestría en Ciencias de la Computación by Description "Tesis"
Now showing 1 - 20 of 21
Results Per Page
Sort Options
Item 3D medical image segmentation based on 3D convolutional neural networks(Universidad Católica San Pablo, 2021) Marquez Herrera, Alejandra; Cuadros Vargas, Alex JesúsA neural network is a mathematical model that is able to perform a task automatically or semi-automatically after learning the human knowledge that we provided. Moreover, a Convolutional Neural Network (CNN) is a type of sophisticated neural network that has shown to efficiently learn tasks related to the area of image analysis (among other areas). One example of these tasks is image segmentation, which aims to find regions or separable objects within an image. A more specific type of segmentation called semantic segmentation, makes sure that each region has a semantic meaning by giving it a label or class. Since neural networks can automate the task of semantic segmentation of images, they have been very useful for the medical area, applying them to the segmentation of organs or abnormalities (tumors). Therefore, this thesis project seeks to address the task of semantic segmentation of volumetric medical images obtained by Magnetic Resonance Imaging (MRI). Volumetric images are composed of a set of 2D images that altogether represent a volume. We will use a pre-existing Three-dimensional Convolutional Neural Network (3D CNN) architecture, for the binary semantic segmentation of organs in volumetric images. We will talk about the data preprocessing process, as well as specific aspects of the 3D CNN architecture. Finally, we propose a variation in the formulation of the loss function used for training the 3D CNN, also called objective function, for the improvement of pixel-wise segmentation results. We will present the comparisons in performance we made between the proposed loss function and other pre-existing loss functions using two medical image segmentation datasets.Item An adversarial model for paraphrase generation(Universidad Católica San Pablo, 2020) Vizcarra Aguilar, Gerson Waldyr; Ochoa Luna, Jose EduardoParaphrasing is the action of expressing the idea of a sentence using different words. Paraphrase generation is an interesting and challenging task due mainly to three reasons: (1) The nature of the text is discrete, (2) it is difficult to modify a sentence slightly without changing the meaning, and (3) there are no accurate automatic metrics to evaluate the quality of a paraphrase. This problem has been addressed with several methods. Even so, neural network-based approaches have been tackling this task recently. This thesis presents a novel framework to solve the paraphrase generation problem in English. To do so, this work focuses and evaluates three aspects of a model, as the teaser figure shows. (a) Static input representations extracted from pre-trained language models. (b) Convolutional sequence to sequence models as our main architecture. (c) Hybrid loss function between maximum likelihood and adversarial REINFORCE, avoiding the computationally expensive Monte-Carlo search. We compare our best models with some baselines in the Quora question pairs dataset. The results show that our framework is competitive against the previous benchmarks.Item CharText: relacionando texto con visualizaciones para la creación de ayudas visuales en documentos(Universidad Católica San Pablo, 2019) Pinheiro Rodriguez, Joao Valentinno; Poco Medina, JorgeActualmente muchas fuentes de contenido presentan la información utilizando visualizaciones que complementan el texto en los documentos. Sin embargo, para leer este tipo de documentos debemos dividir nuestra atención entre el grafico y el texto. Es por eso que muchos creadores de contenido diseñan documentos interactivos con enlaces visuales que conectan el texto con el grafico. No obstante, para conseguir documentos interactivos se requieren de habilidades en desarrollo web y herramientas especializadas. Por otro lado, existen muchos de documentos estáticos (no interactivos) que podrían aprovecharse y convertirse en documentos interactivos. Es por eso, que presentamos CharText, un método que extrae automáticamente, los enlaces visuales entre un gráfico y el texto de un documento, como parte de un proyecto más ambicioso para automatización de documentos interactivos. Nuestro método encuentra los enlaces visuales mediante comparaciones basadas en la sintáctica, semántica y valores numéricos de las frases y el análisis de los elementos textuales del gráfico. Evaluamos nuestro método utilizando un conjunto de datos propuesto en un trabajo previo, que realiza la misma tarea mediante crowdsourcing (i.e., anotaciones de muchas personas). Proponemos un segundo conjunto de datos, que incluye tres tipos de gráficos: bar charts, line charts y scatter plots. En el primer conjunto de datos, obtenemos una similitud con las anotaciones de los expertos de un 45 %, mientras que el método basado en crowdsourcing obtiene una similitud del 59 %, y en el segundo conjunto de datos obtenemos una similitud de 53 %. A pesar que cuantitativamente no superamos al método basado en crowdsourcing, nuestro método propone un enfoque automático, que no requiere acceder a los datos de la visualización y soporta tres tipos de gráficos, a diferencia del método basado en crowdsourcing, que no es automático y solo fue evaluado en bar charts. Para mostrar la utilidad de nuestro método presentamos dos aplicaciones. La primera es una herramienta que permite la visualización de los enlaces obtenidos a través de overlays (i.e., elementos gráficos sobrepuestos en las imágenes resaltando algún aspecto de la visualización) y la segunda es una aplicación para la conversión automática de voz a overlays.Item (Delta) - radius IVRL: paradigma de integración de aprendizaje por refuerzo en sistemas multi-agente(Universidad Católica San Pablo, 2016) Camargo Monroy, Jesús Alejandro; Barrios Aranibar, DennisLos sistemas multi-agente han mostrado, por su propia naturaleza, permitir resolver problemas que requieren coordinación y/o cooperación, ello por cuanto permiten representar de forma natural dichas situaciones. Sin embargo, existen algunos problemas relacionados a su representación formal y en consecuencia a su aplicación. El estudio de los modelos formales actuales ha dejado al descubierto algunas de las falencias respecto a su representación y aplicación; con un fallido sistema de comunicación como el problema mayor comúnmente encontrado. Estando al tanto de este problema proponemos : δ-radius Communication Model, una representación formal para la comunicación en sistemas multi-agentes. Los paradigmas dominantes de aprendizaje en el área son Independent Learning e Influence Value Reinforcement Learning. Polos opuestos en relación a la influencia de los agentes respecto a sus compañeros. Independent Learning busca establecer un sistema libre de influencia; mientras tanto, Influence Value Reinforcement Learning presenta un escenario en el cual los agentes son influenciados por todos sus compañeros en un entorno compartido. Basándonos en ambos extremos, una vista unificada de ambos paradigmas es definida: δ-radius Influence Value Reinforcement Learnig. La visión unificada ha de permitir el desarrollo de sistemas intermedios, en los cuales se pueda definir limitaciones explícitas a la comunicación mediante una noción de distancia entre los agentes y teniendo como limitante a δ, una variable que determinara la distancia máxima bajo la cual es posible establecer comunicación entre dos agentes. Más aún, los resultados de los experimentos desarrollados han demostrado que los sistemas intermedios han de tener una menor complejidad algorítmica y una mejor capacidad de convergencia.Item Desarrollo de un modelo híbrido usando modelos de aprendizaje profundo para la recuperación de información multi-modal en texto e imágenes(Universidad Católica San Pablo, 2017) Diaz Zeballos, Miler; Ochoa Luna, José EduardoActualmente el uso de los modelos de Aprendizaje Profundo en muchas áreas de investigación está demostrando excelentes resultados, el área de Recuperación de Información es una de ellas. Dentro de esta área existe una tarea que es la Recuperación de Información en múltiples modalidades. El objetivo principal de esta tarea es proyectar datos de diferentes modalidades dentro de un mismo espacio semántico o crear un modelo para establecer una relación entre estos espacios. En esta investigación se propone dos modelos híbridos intra-modales para tratar con imágenes y textos respectivamente y la elaboración de un modelo para establecer una relación entre ambas modalidades utilizando modelos de Aprendizaje Profundo. Los resultados serán evaluados en varios conjuntos de datos utilizados en el estado del arte para validar el rendimiento del modelo general.Item Descriptor 3D para reconocimiento de objetos con cámaras RGB-D(Universidad Católica San Pablo, 2020) Istaña Chipana, Luis Ronald; Loaiza Fernández, Manuel EduardoEn la actualidad, el reconocimiento de objetos en el campo de visión por ordenador, es un reto constante con la finalidad de alcanzar una mayor precisión en el menor tiempo posible. En esta investigación, se propone un nuevo descriptor tridimensional para el aprovechamiento de las cámaras de profundidad de nombre Color Point Pair Feature Light (CPPFL), basado en el descriptor Point Pair Feature (PPF) de Drost et al. (2010). El descriptor propuesto aprovecha la información de color y lo agrupa de un modo más eficaz y ligero que el descriptor Color Point Pair Feature (CPPF) de Choi y Christensen (2016), el cual también usa el color. También se propone una versión alterna llamada Color Point Pair Feature Light Plus (CPPFL+), que se diferencia en el método de creación aprovechando del mismo concepto de agrupación de colores, por lo que gana un "Plus"de velocidad. Este cambio hace que el descriptor sea más eficiente en comparación con anterior, optimizando el proceso de reconocimiento de objetos, esta mejora permite reconocer objetos en tiempo real de 10 fotogramas por segundo o más dependiendo del tamaño del objeto.Item Estimación de la incertidumbre en redes neuronales profundas(Universidad Católica San Pablo, 2020) Jaita Aguilar, Jose Hugo; Mora Colque, Rensso Victor HugoHoy en día, los modelos de aprendizaje profundo representan el estado del arte en muchas tareas, lo que ha motivado a utilizarse en distintas aplicaciones reales. Varias de ellas se encuentran en campos como: la medicina, seguridad, finanzas, etc. en donde una predicción errónea puede llegar a ser fatal. Por lo tanto, necesitamos que los modelos no solo den una predicción, sino que además un grado de certeza acerca de ella, es decir, la incertidumbre en la predicción. En esta tesis se estudian dos tipos de incertidumbre: la epistémica (la cual captura la falta de certeza del modelo) y la aleatoria (generada por el ruido en los datos). La estimación de la incertidumbre epistémica es un desafío, siendo el enfoque bayesiano el más utilizado para abordarla (debido a las herramientas que nos ofrece), pero este viene con un costo computacional prohibitivo, evidenciado aún más en modelos de aprendizaje profundo. Nosotros proponemos el método SVGD-A, utilizando como base al método SVGD, para realizar la inferencia bayesiana. Nuestra propuesta se enfoca en acelerar el proceso de convergencia de SVGD, permitiendo el escalamiento a modelos profundos. En cuanto a la incertidumbre aleatoria, nosotros proponemos un método basado en la extracción de características de bajo nivel en modelos ya entrenados, para luego aplicarles (a las características) una reducción de dimensionalidad con t-SNE, volviendo as ́ı el problema en una tarea de cauterización. Además, proponemos un segundo método el cual utiliza el mismo esquema descrito anteriormente, pero con la novedad que se le agrega un Autoencoder Variacional. Y por último, aportamos con un novedoso enfoque para realizar inferencia usando t-SNE. Finalmente, mostramos la eficiencia de nuestros métodos en la tarea de detectar muestras out-of-distribution en distintas bases de datos, logrando resultados muy superiores al estado del arte.Item Flash image enhancement via ratio-log image translation to ambient images(Universidad Católica San Pablo, 2021) Chavez Alvarez, Jose Armando; Cayllahua Cahuina, Edward Jorge YuriTo illuminate low-light scenarios in photography, photographers usually use the camera flash, this produces flash images. Nevertheless, this external light may produce non-uniform illumination and unnatural color of objects, especially in low-light conditions. On the other hand, in an ambient image, an image captured with the available light in the ambient, the illumination is evenly distributed. We therefore consider ambient images as the enhanced version of flash images. Thus, with a fully convolutional network, and a flash image as input, we first estimate the ratio-log image. Then, our model produces the ambient image by using the estimated ratio-log image and ash image. Hence, high-quality information is recovered with the flash image. Our model generates suitable natural and uniform illumination on the FAID dataset with SSIM = 0:662, and PSNR = 15:77, and achieves better performance than state-of-the-art methods. We also analyze the components of our model and how they affect the overall performance. Finally, we introduce a metric to measure the similarity of naturalness of illumination between target and predicted images.Item Generación interactiva de ensambles de métodos de agrupamiento para análisis de datos multidimensionales(Universidad Católica San Pablo, 2020) Castro Ochante, Jose Melchor; Gomez Nieto, Erick MauricioEl aprendizaje de maquina se ha aplicado con éxito a una gran variedad de campos que va desde la recuperación de información, extracción de datos, reconocimiento de voz y gráficos por computadora, visualización e interacción humano-computador. Los métodos de agrupación son los algo- ritmos más utilizados para el aprendizaje no supervisado. Sin embargo, no existe un único agrupamiento óptimo para todos los conjuntos de datos, ya que diferentes algoritmos de agrupamiento pueden producir diferentes particiones porque imponen una estructura diferente en los datos. Para superar este dilema de seleccionar una técnica apropiada y los parámetros correspondientes, se utilizan ensamble de agrupamientos para mejorar la precisión y la solidez mediante una combinación ponderada de dos o más enfoques. Sin embargo, muchas veces este proceso se lleva a cabo casi a ciegas, ya que probamos posibles combinaciones de métodos de forma secuencial y evaluamos si su desempeño es beneficioso para nuestros propósitos. Luego, realizamos muchas veces este procedimiento con la esperanza de encontrar un patrón que apoye nuestra próxima decisión para elegir una combinación. En este trabajo presentamos una metodología novedosa para la generación de ensamble de agrupamientos, basada en métricas cuantitativas y recursos visuales interactivos. Nuestro enfoque permite que los analistas muestren diferentes resultados de los métodos de agrupación del estado del arte, analicen su rendimiento en métricas específicas e inspección visual, asignen ponderaciones interactivas para establecer sus contribuciones en conjunto basadas en los requisitos del analista y gestionen (crear, almacenar, comparar, fusionar) ensamble de agrupamiento. Para probar esta metodología, implementaremos un prototipo, capaz de presentar mediante una vista gráfica, el resultado de aplicar un modelo de agrupamiento a un conjunto de datos.Item Jam Vis: exploración y visualización de congestiones vehiculares(Universidad Católica San Pablo, 2019) Rodriguez Condori, Elio Xavier; Poco Medina, JorgeLas congestiones vehiculares son un problema grave en las ciudades urbanas porque causan contaminación, desperdicio de combustible, dinero y tiempo. El primer paso para resolver estos problemas es comprender la dinámica de las congestiones vehiculares en una ciudad. Hoy en día, tenemos múltiples servicios que capturan constantemente información de tráfico a través de tel´efonos celulares que actúan como sensores. Entre estos servicios tenemos la aplicación Waze que muestra en tiempo real congestiones y alertas reportadas por los usuarios. Sin embargo, procesar y visualizar los registros recopilados por Waze es desafiante, debido a que son millones de registros por cada ciudad y no se encuentran estructurados por segmento de calle. En este trabajo, presentamos una metodología que permite procesar millones de registros de congestiones y alertas recopiladas de múltiples ciudades. Estos datos son estructurados relacionando los atributos (i.e., el nivel de tráfico o el número congestiones) a cada segmento de calle de una ciudad. Esto nos permite tener los datos organizados de una forma adecuada para su análisis y exploración visual. Además, implementamos JamVis, un sistema web de análisis visual, para explorar y analizar de forma interactiva las congestiones vehiculares de múltiples ciudades a través de diferentes vistas enlazadas. Este sistema fue diseñado respetando los requerimientos de expertos de dominio, las cuales fueron traducidas a tareas de diseño. Esta herramienta nos permite hacer consultas visuales en espacio, tiempo y atributos, con el objetivo de entender el comportamiento y causas de las congestiones. Para demostrar la utilidad de nuestro sistema, presentamos tres estudios de casos donde exploramos, visualizamos y analizamos el comportamiento y las causas de las congestiones vehiculares de la ciudad de Rio de Janeiro (Brasil) y el distrito de Miraflores (Lima, Peru´) registradas durante un periodo de tres meses.Item Un método de correspondencia de imágenes basado en superpixeles(Universidad Católica San pablo, 2019) Mendoza Villafane, Pavel Angel; Loaiza Fernández, Manuel EduardoEl problema de detección de correspondencias entre imágenes es clásico en el área de Visión por Computador debido a su alta aplicabilidad en otros múltiples problemas como: Tracking, SfM, NRSfT, SLAM, Image Registration, segmentación, entre otros. En la actualidad, no existe un método universal que funcione en todo tipo de aplicaciones, sino que cada enfoque es direccionado a una aplicación específica y suele fallar en contextos diferentes para los que fueron diseñados. Enfoques basados en características o bloques permiten resaltar uno o varios (pero no todos) de las siguientes características: precisión, cantidad y costo computacional. La mayor diferencia entre un método y otro es posiblemente la invarianza a factores como cambios de iluminación y transformaciones geométricas (rotación, escala, afines). En esta tesis se propone y desarrolla un método de correspondencias entre pares de imágenes que busca incrementar el número total de puntos resultantes. Para ello, se desarrolla un enfoque basado en tres etapas. Primero, se reduce el espacio de búsqueda empleando superpíxeles, se calcula una nueva pseudo-imagen y su descripción. Luego, basado en un enfoque de superpíxel multinivel basado, se define un conjunto escalado de pseudo-imágenes y sus descripciones, los cuales son empleados para aproximar iterativamente la ubicación de las correspondencias sobre un espacio de búsqueda reducido. Finalmente, los puntos detectados son refinados en una búsqueda local a nivel de píxel para determinar las correspondencias a en este nivel. También proponemos un enfoque de coherencia geométrica a nivel de píxel y superpíxel para el control de correspondencias erróneas. Nuestra propuesta aplicada a problemas como reconstrucción de imágenes y transferencia de color obtuvo similares resultados en el número de correspondencias comparado con otros trabajos afines dentro del estado del arte; sin embargo, nuestro enfoque obtuvo un menor tiempo de ejecución. También, mostramos como caso de uso la reconstrucción 3D basada en imágenes la cual obtuvo un mayor de detalle en la nube de puntos resultante comparado con un enfoque tradicional.Item Un método radial interactivo para la exploración visual de datos en alta dimensión(Universidad Católica San Pablo, 2017) García Zanabria, Germain; Gomez Nieto, ErickEl tratamiento y descubrimiento de patrones en conjuntos de datos despierta gran interés en la comunidad de investigadores. Específicamente, en el manejo de datos multidimensionales se han realizado grandes avances. Sin embargo, todavía existen ciertas limitaciones como el costo computacional y la interacción con el usuario que impiden que la tarea de extracción de información sea simple y eficiente a la vez. Una técnica que mitiga estos dos problemas es Star Coordinates, método de visualización capaz de revelar patrones y grupos de datos multidimensionales mientras muestra el impacto de los atributos en la formación de la representación de los datos. A pesar de su utilidad, Star Coordinates tiene ciertos inconvenientes que impiden su uso en varios escenarios. Por ejemplo, cuando el número de dimensiones de los datos es realmente alto, las visualizaciones resultantes se vuelven desordenadas, lo que dificulta el análisis de la importancia de los atributos en la formación de grupos y/o patrones. En esta tesis proponemos iStar. Un nuevo método basado en Star Coordinates, para el análisis de datos en alta dimensión. El método propuesto se cimienta en el agrupamiento (basado en PCA, Centroides y Varianza) y reordenamiento de atributos (basado en Métricas y Similaridad) con el fin de mitigar la distorsión visual. El agrupamiento y reordenamiento se puede realizar de forma automática, así como de forma interactiva, lo que permite que el usuario pueda analizar aún más el impacto de los atributos en la visualización radial. La eficacia de nuestro enfoque se muestra a través de una serie de experimentos y estudios de casos, los cuales muestran evidencia de la utilidad del método propuesto.Item Un nuevo mecanismo de regularización para algoritmos de aprendizaje con pocas muestras(Universidad Católica San Pablo, 2021) Llerena Paricahua, Marcell; Ochoa Luna, José EduardoEl gran éxito de las redes neuronales profundas (DNN) incide sobre su capacidad de aprender características automáticamente aminorando la supervisión humana. No obstante, dicho éxito viene acompañado de la gran cantidad de datos necesarios para entrenar los modelos profundos. Por ejemplo, para que un modelo profundo aprenda a distinguir gatos de perros se necesitan cientos de miles de imágenes. Recientemente, una área del aprendizaje automático denominada meta aprendizaje ha recibido especial atención, cuyo principal objetivo es conseguir que los modelos profundos sean capaces de reutilizar experiencia aprendida en diferentes tareas para aplicarla en el aprendizaje de una nueva tarea, lo que en consecuencia debería otorgarle al modelo profundo la habilidad de aprender nuevas tareas a partir de pocas muestras. En respuesta a ello, en la literatura se han planteado algoritmos que son capaces de generalizar diferentes tareas con una sola muestra de entrenamiento. Sin embargo, aún adolecen de una baja tasa de exactitud. Motivo por el cual, en este proyecto de tesis se introduce un mecanismo de regularización con el objetivo que ayude a maximizar la generalización de las tareas. Nuestros experimentos han mostrado que nuestro método de regularización propuesto alcanza resultados competitivos respecto al estado del arte.Item Una propuesta de algoritmo evolutivo de inspiración cuántica para representación real usando filtro de partículas(Universidad Católica San Pablo, 2017) Chire Saire, Josimar Edinson; Túpac Valdivia, Yván JesúsEn este trabajo se propone, implementa y evalúa el modelo Quantum Inspired Evolutionary Algorithm with Real Representation using Filter Particle (FP-QIEA-R); este modelo usa la generación clásica del modelo Quantum Inspired Evolutionary Algorithm with Real Representation (QIEA-R) (uso de función de distribución de probabilidad uniforme) y propone la generación clásica usando un mecanismo inspirado en filtro de partículas, aproximación de funciones, recompensa de los mejores individuos y muestreo usando funciones de distribución de probabilidad para la búsqueda global y centroides para la búsqueda local. Durante el progreso de este trabajo fueron evaluados varios métodos de estimación de funciones: unidimensionales (splines, interpolación de akima), multidimensionales (regresión multilineal, parzen window) para estimar la función de distribución acumulada(modificada usando el criterio de recompensa). Para evaluar el modelo, se realizaron experimentos con funciones benchmark (Ackley, Rastrigin, Rosenbrock, Schwefel, Sphere) usando una dimensionalidad de 30 y 100. Algunas aplicaciones reales fueron evaluadas: la inicialización de una red perceptrón multicapa para ayudar la convergencia(reducir el número de épocas), encontrar los ángulos en el problema de desdoblamiento de proteínas. En los primeros experimentos, todos los modelos fueron comparados usando medidas estadísticas(media,desviación estándar), tiempo de ejecución y de acuerdo a los resultados obtenidos el modelo más robusto fue el modelo que usa interpolación de akima y añade durante las generaciones a los mejores individuos. Los resultados obtenidos mostraron que la propuesta tiene el mejor desempeño tratando diversos problemas de optimización numérica comparado con el modelo existente QIEA-R.Item Una propuesta de interpolación cíclica cruzada para el problema de la traducción image-a-image con datos no emparejados(Universidad Católica San pablo, 2021) Lopez Caceres, Jorge Roberto; Camara Chavez, GuillermoLa transferencia de estilos de imagen a imagen no emparejadas es un problema desafiante que consiste en la extracción y correspondencia de mapas de características entre un conjunto de datos origen A y un conjunto de datos destino B. Ambos mapas de características se combinan e interpolan mediante una función de correspondencia bidireccional: GB de A → B y GA de B → A. Los métodos actuales apuntan a los modelos basados en redes adversas generativas (GAN) porque sintetizan nuevas muestras bastante realistas en diferentes dominios al aprender las características más importantes de cualquier conjunto de datos. No obstante, el entrenamiento de la función de correspondencia es no-supervisada (datos no emparejados); por lo tanto, la mayoría de los modelos basados en la arquitecturas GAN y CycleGAN no logran aprender las características más importantes de ningún dominio. En consecuencia, la función de transferencia funciona bien solo en una dirección (A → B), y falla en la otra (B → A). En este documento, proponemos un modelo basado en las arquitecturas CycleGAN para resolver el problema de la transferencia de estilos de imagen-a-imagen no emparejadas. Para mejorar la representación del mapa de características (Z) utilizamos un ´único codificador para ambos dominios de datos. De esta forma se logra que las características más importantes de ambos dominios sean más cercanas, y que la función de correspondencia sea más fácil de entrenar. Además consideramos a Z como un dominio intermedio que guía el proceso de aprendizaje y reduce el error inducido de los ciclos. Por otro lado, desarrollamos bloques de entrenamiento por cada ciclo, donde cada bloque consiste en una iteración del generador y 5 iteraciones del discriminador, con el fin de acelerar la convergencia. Para los experimentos se consideraron varios conjuntos de datos, incluidos los conjuntos de datos Cityscapes, Horse2zebra y Monet2photo. Los resultados mostraron una mejora cualitativa (visual), y cuantitativa (calculo por segmentación semántica) respecto a los resultados del CycleGAN.Item Query co-planning for shared execution in key-value stores(Universidad Católica San Pablo, 2022) Ttito Amezquita, Josue Joel; Marroquin Mogrovejo, Renato JavierLarge amounts of data are being stored and queried using different data models. For each of these models, there are specialized data stores which are then accessed concurrently by many different applications. For instance, key-value stores provide a simple data model of key and value pairs. Thus, the simplicity of their read and write interface. Additionally, they provide other operations such as full and range scans. However, along with its simplicity, key-value stores impose some limitations when trying to optimize data access. In this work, we study how to minimize the data movement when executing a large number of range queries on key-value stores. This is based on the observation that when accessing a common dataset, there is usually a (possibly large) overlap among queries accessing it. Thus, to accomplish this, we use shared-workload optimization techniques to execute a group of queries together. We analyze different data structures suitable for co-planning multiple range queries together in order to reduce the total amount of data transferred. Our results show that by co-planning a group of range queries we reduce the total execution time of a query workloadItem Reconocimiento de entidades nombradas para el idioma español utilizando Conditional Random Fields con características no supervisadas(Universidad Católica San Pablo, 2017) Copara Zea, Jenny Linet; Ochoa Luna, José EduardoEl reconocimiento de entidades nombradas es una tarea relevante en el área de Procesamiento de Lenguaje Natural, su función es identificar entidades en textos para un idioma dado. El estudio de esta tarea se ha enfocado principalmente en el idioma inglés. Recientes estudios en el idioma inglés han mostrado que utilizar características no supervisadas tales como word embeddings mejoran el reconocimiento de entidades nombradas. En este trabajo se investiga si características no supervisadas pueden mejorar la tarea de NER supervisado en el idioma español. Para esto, se propone utilizar características no supervisadas mediante word representations y colocaciones, así como características adicionales en un clasificador Conditional Random Field (CRF). Resultados experimentales (82.44% de F-score en el corpus CoNLL-2002) muestran que el enfoque propuesto, en particular cuando se utiliza cross-lingual word representations, es comparable a abordajes de aprendizaje profundo, actualmente el estado del arte para NER en español.Item Segmentation of multi-structures in cardiac MRI using deep learning(Universidad Católica San Pablo, 2020) Gutierrez Castilla, Nicolas; Montoya Zegarra, Javier AlexanderThe heart is one of the most important organs in our body and many critical diseases are associated with its malfunctioning. To assess the risk for heart diseases, Magnetic Resonance Imaging (MRI) has become the golden standard imaging technique, as it provides to the clinicians stacks of images for analyzing the heart structures, such as the ventricles, and thus to make a diagnosis of the patient’s health. However, the examination of these stacks, often based on the delineation of the heart structures, is a tedious and an error prone task due to inter- and intra-variability in the manual delineations. For this reason, the investigation of fully automated methods to support heart segmentation is paramount. Most of the successful methods proposed to solve this problem are based on deep-learning solutions. Especially, encoder-decoder architectures, such as the U-Net (Ronneberger et al., 2015), have demonstrated to be very effective and robust architectures for medical image segmentation. In this work, we propose to use long-range skip connections on the decoder-part of the architecture to incorporate multi-context information onto the predicted segmentation masks and to improve the generalization of the models (see Figure 1). This new module is named Dense-Decoder module and can be easily added to state-of-the-art encoder-decoder architectures, such as the U-Net, with almost no extra additional parameters allowing the model’s size to remain constant. To evaluate the benefits of our module, we performed experiments on two challenging cardiac segmentation datasets, namely the ACDC (Bernard et al., 2018) and the LVSC (Radau et al., 2009) heart segmentation challenges. Experiments performed on both datasets demonstrate that our method leads to an improvement on both the total Average Dice score and the Ejection Fraction Correlation, when combined with state-of-the-art encoder-decoder architectures.Item Técnicas de aprendizaje profundo para el análisis de la percepción de la seguridad urbana(Universidad Católica San Pablo, 2022) Moreno Vera, Felipe Adrian; Poco Medina, Jorge LuisLa percepción es la forma en que los humanos interpretan y comprenden la información captada después de la interacción con el entorno que les rodea, aprendiendo nuevas experiencias o reforzando otras ya vividas. La percepción de la seguridad urbana se puede describir en cómo los humanos presentan una reacción ante un determinado estímulo proveniente de la apariencia visual o conocimiento previo sobre un cierto lugar (calles, zonas urbanas, etc). A partir de esta idea, diversos estudios buscaron describir dicho fenómeno teniendo como ejemplo más notable la teoría denominada \The Broken Window", la cual estudiaba el comportamiento de las personas frente a ambientes cuya apariencia visual era caótica. Así mismo, recientemente este estudio está siendo implementado utilizando diversos tipos de datos, no solo limitándose a encuestas o experimentos sociales, con el objetivo de determinar la relación entre la percepción urbana y características intrínsecas de los ciudades; de los cuales, uno de los conjuntos de datos más resaltables es Place Pulse. En este trabajo, se propone una metodología que permita analizar y explorar los datos de Place Pulse 2.0. Como resultados principales, presentamos un análisis exploratorio de los datos, resaltando la organización y comportamiento de los datos. Además, presentamos una comparación entre diferentes técnicas de aprendizaje supervisado y semi-supervisado. Mostrando que un modelo Generative Adversarial Networks (GAN) presenta mejores resultados que técnicas convencionales.Item Traducción automática del español al inglés usando redes neuronales profundas con información conceptual de sentencias(Universidad Católica San Pablo, 2020) Bragagnini Mendizábal, César Marchelo; Ochoa Luna, José EduardoEl estado de arte en traducción automática está representado por una arquitectura encoder-decoder attention, teniendo como mayor criterio la atención específica de ciertas palabras durante diferentes momentos en la traducción de una oración fuente. El presente trabajo propone distintas modificaciones a una arquitectura encoder-decoder attention en que la información total de una sentencia es aprovechada por el mecanismo de atención, logrando que se considere por igual el vector representativo y las partes focalizadas de este. Nuestros resultados demuestran que estas modificaciones mejoran la traducción en relación a una línea base competitiva. Además, vale resaltar que la mayoría de trabajos se esfuerzan por construir modelos de Traducción Automática para varios idiomas, en su mayoría inglés, alemán, francés, ruso. Estas últimas técnicas no consideran al español por igual, pese a ser uno de los tres lenguajes más hablados en el mundo. Por este motivo, en esta tesis se enfatiza el aprendizaje de modelos para la traducción del español al inglés.