Tesis - Ciencias de la Computación
Permanent URI for this collection
Browse
Browsing Tesis - Ciencias de la Computación by Issue Date
Now showing 1 - 20 of 68
Results Per Page
Sort Options
Item Técnicas y algoritmos específicos para memorias flash(Universidad Católica San Pablo, 2013) Masías Chávez, Enrique Eladio; Paz Valderrama, AlfredoLas memorias Flash son dispositivos de uso cada vez más cotidiano. Su fácil manejo y transpirabilidad, hacen que sean los preferidos para almacenar datos en teléfonos móviles, reproductores de música, cámaras digitales, computadoras portátiles, entre otros artefactos. Si bien las flash presentan muchas ventajas comparadas con otros dispositivos de almacenamiento, poseen también algunas debilidades, destacando principalmente el hecho de que cada celda que compone a la memoria, tiene un ciclo de vida limitado, variando entre 10,000 y un 1,000,000 de operaciones de borrado/escritura, cifras que no son suficientes si consideramos que en algunas circunstancias, las memorias operan diariamente. Sin embargo, el impacto de dichas limitaciones puede minimizarse, es por ello que se han diseñado algoritmos y estructuras de datos que buscan aumentar el ciclo de vida de las Flash. En esta tesis se busca explicar cómo opera y que características tiene una memoria Flash. Así también, describir los algoritmos y estructuras existentes hasta hoy. Finalmente, se presentará una nueva técnica que busca mejorar el desempeño de estas memorias basándose en errores y aciertos de diseños anteriores.Item Visualización de resultados de búsquedas textuales usando proyecciones multidimensionales(Universidad Católica San Pablo, 2013) Gómez Nieto, Erick Mauricio; Cuadros Vargas, Alex; Nonato, Luis GustavoLos usuarios de Internet están muy familiarizados a que los resultados de una consulta sean exhibidos en una lista ordenada de snippets. Cada snippet posee contenido textual que muestra un resumen del documento referido (o página web) y un enlace hacia el mismo. Esta representación tiene muchas ventajas como por ejemplo proporcionar una navegación fácil y simple de interpretar. Sin embargo, cualquier usuario que usa motores de búsqueda podría reportar posiblemente alguna experiencia de decepción con este modelo. Aún tiene limitaciones en situaciones particulares, como el no proporcionar una visión general de la colección de documentos recuperados. Además, dependiendo de la naturaleza de la consulta por ejemplo, puede ser muy general, o ambigua, o mal expresada, la información deseada puede ser mal clasificada, o los resultados puede contemplar temas variados. Varias tareas de búsqueda serían mas fáciles si fuese devuelta a los usuarios una visión general de los documentos organizados con el fin de reflejar la forma como son relacionados, basados en el contenido. Proponemos una técnica de visualización para exhibir los resultados de consultas web que busca superar tales limitaciones. Esta combina la capacidad de preservación de vecindad de las proyecciones multidimensionales con la conocida representación basada en snippets. Esta visualización emplea una proyección multidimensional para derivar layouts bidimensionales de los resultados de la búsqueda, que preservan las relaciones de similaridad de texto, o vecindad. La similaridad es calculada mediante la aplicación de la similaridad de coseno sobre una representación “bag-of-words” vectorial de colecciones construidas a partir de los snippets. Si los snippets son exhibidos directamente de acuerdo con el layout derivado, ellos se sobreponen considerablemente, produciendo una visualización pobre. Nosotros superamos este problema definiendo un funcional de energía que considera tanto la sobreposición entre los snippets y la preservación de la estructura de las vecindades como fue dada en el layout de la proyección. Minimizando esta funcional de energía es proporcionada una representación bidimensional con preservación de las vecindades de los snippets textuales con sobre posición mínima. La visualización transmite tanto una visión global de los resultados de la consulta como los agrupamientos visuales que reflejan documentos relacionados, como es ilustrado en varios de los ejemplos presentados.Item Modelo de un algoritmo genético con selección discriminatoria de individuos bajo un esquema de ponderación de probabilidades de mutación(Universidad Católica San Pablo, 2013) Arroyo Apaza, Victor Manuel; Túpac Valdivia, Yván JesúsUn Algoritmo Genético (AG) posee varios operadores genéticos que pueden ser modificados para mejorar su rendimiento. Estos operadores incluyen a la selección, cruzamiento y mutación. La selección es una de las operaciones más importantes en el AG. Este trabajo de investigación presenta un modelo de AG que implementa un operador de selección al que se le denominara Selección Discriminatoria de Individuos (SDI), que se inspira en la discriminación de clases que existe en la sociedad, es decir los mejores se reproducen con los mejores y los peores con los peores. La estructura de este operador toma como base el operador de Selección Sexual (SS) ya existente. El modelo evolutivo incluye un Esquema de Ponderación de Probabilidades de Mutación (EPPM) para la asignación de probabilidades de mutación en la población. Para verificar la calidad de la evolución de los operadores propuestos se realizaron dos casos de uso: solucionar el problema de mejora de calidad en horarios de trabajo y cuatro funciones Benchmarking. Los experimentos realizados dieron resultados que muestran una característica exploratoria para el operador de SDI, mejorando el tiempo de convergencia conforme el tamaño de la población se incrementa.Item Compartición de secretos con algoritmos genéticos y criptografía caótica(Universidad Católica San Pablo, 2014) Orcoapaza Ortega, Oscar Fernando; Gutiérrez Cáceres, Juan CarlosCon el avance tecnológico en las comunicaciones, se debe garantizar la seguridad en las transacciones comerciales por vía electrónica. Cada vez se ha generado el rompimiento de claves en los sistemas criptográficos, originando la creación de nuevas técnicas de protección de datos como: la compartición de secretos y los algoritmos criptográficos basados en la teoría del caos. Por esta razón, en esta tesis se presenta una técnica para la compartición de secretos, basado en algoritmos gen éticos el cual recibe como entrada un secreto de longitud variable, que es evaluado con la función de aptitud dando como resultado la mejor partición para ese secreto. Luego procedemos a encriptar cada partición por medio de un algoritmo criptográfico caótico simétrico basado en Lorenz, posteriormente el emisor puede enviar cada secreto cifrado por un medio de comunicación hacia el receptor, quien procede a descifrar y juntar todas las particiones del secreto para conocer el secreto original.Item Búsqueda por similitud semántica y estructural del contenido aplicada en documentos XML(Universidad Católica San Pablo, 2014) Dongo Escalante, Irvin Franco; Ticona Herrera, Regina PaolaEn estos últimos años la gran cantidad de información que se encuentra sobre internet requiere una nueva manera de estructurarla, para facilitar su representación, manipulación y recuperación; es así como aparece Extensible Mark-up Language (XML) como un estándar para la representación de datos en la Web. Su flexibilidad y la gran demanda que tiene, han permitido que se desarrollen un conjunto de técnicas para la comparación, consulta, clasificación, entre otras. La adopción de dicho estándar permite un mejor manejo y estructura de la información, así como una gran variedad de aplicaciones en diversas áreas del conocimiento. Tal es así como el área de Derecho que se ha elegido como caso de prueba dentro de la presente Tesis. Dicha área está sufriendo una transformación en el manejo y administración de su información (leyes, decretos, contratos, etc.) hacia estándares que tienen como base al XML. Esta transformación toma cada día más fuerza, debido a la necesidad de manejar gran cantidad de documentos heterogéneos donde el análisis de los datos para su recuperación debe realizarse de forma muy especializada. Para ello es necesario un análisis no solo de la estructura del documento sino un estudio del contenido, no por coincidencia de palabras como se está´ haciendo actualmente, sino por el significado real que la palabra representa en el documento, trabajando la parte de sinonimia, polisemia y la relación entre los términos. La presente investigación desarrolla un algoritmo basado en Indexación Semántica Latente (LSI) para la recuperación de información, donde la relación entre palabras esta´ afectada por la ubicación de las mismas dentro del documento; esto quiere decir, que el valor se verá influenciado de acuerdo a la posición en la que se presente (título, descripción, comentarios, etc.). Con este análisis semántico se mejora los resultados de las consultas en cuanto a su precisión debido a que no se descuida la parte estructural de los documentos, lo que proporciona información adicional en cuanto al contexto de la búsqueda. Finalmente, el trabajo se enfoca en la recuperación de información en dos bases de datos Initiative for the Evaluation of XML retrieval (INEX) y Derecho Ambiental como área de aplicación, midiendo su eficiencia mediante un cluster para posteriormente utilizar un ejecutor de consultas.Item Modelo de indexación semi-automática de manuscritos históricos usando Wavelets de Gabor(Universidad Católica San Pablo, 2014) Loayza Cruz, Kristel Gisselle; Meza Lovón, Graciela LecirethDesde la última década se ha propuesto en la literatura diversos métodos para buscar información en manuscritos históricos que no se restrinjan únicamente al autor, año de publicación, o tema; sino que también se pueda tener un índice similar al índice de la parte trasera de un libro para encontrar información relevante en los manuscritos históricos. Uno de los enfoques más usados para lograr dicho propósito es el enfoque Word Spotting el cual consta de cuatro etapas: segmentación de líneas de texto, segmentación de palabras, extracción de características y agrupamiento. La etapa más determinante de dicho enfoque es la extracción de características, siendo la técnica de perfiles la más utilizada en la literatura. Sin embargo, el modelo de indexación semiautomática de manuscritos históricos al aplicar dicha técnica, muestra un error de 38% para la colección de George Washington (GW), mientras que, para la colección de Ejecutoria y Certificación del Escudo de armas, muestra un error de 42%. Por lo que, se propone usar la técnica de Wavelets de Gabor para extraer características de las imágenes de las palabras, de modo que, se pueda reducir el error Word Error Rate (WER) actualmente obtenido del modelo de indexación semi-automática de la colección de manuscritos históricos George Washington (GW) a un 34% y de la colección de manuscritos históricos Ejecutoria y Certificación del Escudo de armas (ECA) a un 38%.Item Técnicas de visualización de información para el análisis de datos de sensores y biosensores(Universidad Católica San Pablo, 2014) Espinoza Carreon, Eduardo Gonzalo; Paulovich, Fernando V.Un sensor o biosensor es un dispositivo analítico cuyo objetivo principal es la identificación de sustancias y sus concentraciones. El empleo efectivo de los sensores permite resolver distintos problemas en diversas áreas como la química, biología, medicina, farmacología, ciencias ambientales, entre otras. Dentro de esos problemas podemos resaltar dos: el diagnóstico de enfermedades y la sustitución de seres humanos por lenguas electrónicas para evitar los análisis subjetivos. El primer problema es resuelto por la identificación de moléculas únicas, pero presenta problemas relacionados a la gran cantidad de datos generados por los sensores Surface Enhanced Raman Spectroscopy (SERS). Por otro lado, el segundo problema involucra la recalibración de sensores de espectroscopia de impedancia para que puedan ser sustituidos por lenguas electrónicas cuando presenten deficiencias. En ambos casos fueron desarrolladas herramientas que emplearon técnicas de visualización de información y permitieron una exploración eficiente de la gran cantidad de datos producidos. La primera técnica consiguió mejorar el tiempo de ejecución del proceso de detección de molécula única a diferencia del análisis manual actualmente empleado. Además, logro´ reducir el número de falsos positivos. El segundo método propuesto, para el reemplazo de sensores en lenguas electrónicas, mostro´ resultados satisfactorios. El uso de la definición del circuito electrónico equivalente de Taylor en combinación con el método Generalized Procrustes Analysis (GPA) permitió el reemplazo de sensores de forma adecuada. El pilar de este procedimiento se basó en la transformación de la respuesta de un sensor en la respuesta de otro, característica que en el futuro podrá ser usada para producir sistemas más reproducibles y confiables.Item Uso de algoritmos genéticos en la optimización de la utilidad de generación de energía hidroeléctrica(Universidad Católica San Pablo, 2015) Molina Díaz, José Alberto; Gutiérrez Cáceres, Juan CarlosEl presente trabajo propone el uso de Augmented lagrangian Genentic Algorithm (ALGA), para la optimización del plan de operación de centrales hidroeléctricas. El problema de despacho económico de centrales involucra principalmente la disponibilidad del recurso hídrico, así como la gestión optima del mismo en orden a satisfacer la demanda nacional a través del sistema interconectado de energía en Perú. Las restricciones planteadas por el gobierno central y los entes involucrados plantean un marco interesante de trabajo. Este documento pretende encontrar la representación del modelo hidrológico de centrales en cascada, una función de aptitud idónea, operadores genéticos apropiados y la aplicación en un caso de estudio para una empresa local de generación hidroeléctrica. Se realizaron pruebas comparativas en un año completo, con resultados satisfactorios en optimización de la utilidad histórica.Item Visualización de música en formato MIDI y análisis de características musicales con clasificadores tradicionales(Universidad Católica San Pablo, 2015) Soriano Vargas, Aurea Rossy; Ferreira de Oliveira, Maria CristinaEn este trabajo investigamos dos enfoques. El primero consiste en la visualización tanto de una pieza musical como de una colección utilizando el concepto de estructura. El segundo enfoque aborda la clasificación automática por genero utilizando estas características estructurales por medio de modelos tradicionales. Tanto la visualización como la clasificación de música requieren vectores de características para representar cada pieza musical. Proponemos el uso de la estructura de la música, basada en patrones encontrados en el ritmo o en la secuencia de acordes. En visualización, las técnicas de proyección multidimensional permiten obtener representaciones de datos, distribuidos utilizando alguna estrategia, las cuales pueden ser usadas como base en diferentes metáforas de visualización que son aplicables a diversos tipos de datos. En este contexto, una de las metáforas más usadas, para exhibir resultados de proyecciones multidimensionales, es la nube de puntos. Así, existe interés en investigar representaciones alternativas que visualicen características de la colección de música. Por tanto, nuestro objetivo es investigar representaciones capaces de transmitir la estructura de una pieza musical individual, tanto de ritmo como de acordes a partir de partituras musicales. También como, visualizar colecciones de música resaltando las (dis)similitudes entre diferentes piezas musicales y estudiar los resultados de clasificadores tradicionales a partir de aquellas características estructurales comparadas a otras características de la literatura. Dichas características son obtenidas a partir de archivos musicales en formato MIDI, que permite la identificación de estructuras musicales relevantes. En esta tesis, son descritos los procesos y resultados tanto en el contexto de visualización como en el de clasificación de colecciones de música, además de describir un sistema que implementa recursos e ilustra cómo pueden apoyar algunas tareas de exploración en colecciones de música, identificando posibles escenarios de uso.Item Recomendación musical a partir de la selección de características relevantes de alto nivel mediante las estructuras métricas LAESA y Omni secuencial(Universidad Católica San Pablo, 2015) Delgado Mattos, Alessandra Daniela; Meza Lovón, GracielaEn los últimos años la cantidad de aplicaciones orientadas a la industria musical ha incrementado considerablemente. Las opciones que estas nuevas aplicaciones ofrecen cada vez se van tornando m´as complejas y sofisticadas, puesto que las expectativas de los usuarios se van haciendo más exigentes. Hoy en día ya no basta con aplicaciones musicales que so´lo sirvan como simples reproductores de archivos de audio, los usuarios precisan de m´as opciones y funcionalidades, siendo uno de estos, los sistemas automáticos de recomendación musical basado en los gustos y preferencias de dicho usuario. Entonces para poder obtener una recomendación musical óptima se enfrentan tres problemas, el primero es como extraer la información musical, ya que existen diversas maneras de hacerlo, el segundo problema es la selección de la información extraída para poder clasificar los archivos musicales y finalmente la indexación de los archivos musicales bajo criterios de similitud para poder organizar la música. Estos problemas se resuelven utilizando características de alto nivel mediante la extracción de información de los metadatos y archivos MIDI, seleccionar las características obtenidas haciendo uso de dos métodos de selección de características mRMR y SIR y finalmente indexar los datos obtenidos en una estructura métrica que permita realizar las consultas requeridas generando una recomendación musical más óptima. Se obtuvo hasta 57% de eficacia en la recomendación por género y hasta 0,87 utilizando la métrica precisión en cuánto a la similitud de las canciones recomendadas hacia la ingresada por el usuario.Item Rendering volumétrico de mallas segmentadas simpliciales utilizando arquitecturas masivamente paralelas(Universidad Católica San Pablo, 2015) Muñoz Escapa, Luis Alberto; Cuadros Vargas, AlexEl proceso de generación de mallas tetraedrales a partir de imágenes se realiza mediante algoritmos de discretización de dominios, entre otros podemos mencionar al algoritmo Imesh. Esta técnica nos brinda la posibilidad de obtener mallas formadas por subregiones para una mejor representación de la realidad. El siguiente paso para esta representación es el proceso de renderizado. Diversos algoritmos pueden ser utilizados para este fin, sin embargo, todos ellos trabajan de manera global utilizando una sola función de transferencia por toda la malla a renderizar. De esta forma no se permite realizar un renderizado diferenciado por cada región, perdiendo la posibilidad de resaltar o eliminar regiones visualmente. Lo que se busca con esta investigación es enfocarse en la innovación brindada por las mallas segmentadas pudiendo manipular de manera independiente el renderizado de cada una de las regiones. En este trabajo presentamos una nueva técnica de renderizado, la cual permite utilizar las capacidades brindadas por las mallas generadas por el algoritmo Imesh. Esto nos brinda la posibilidad de aplicar cambios de manera particular a cada región y de esta forma aumentar la calidad visual del renderizado. Así mismo, el algoritmo propuesto utiliza las características de la programación en arquitecturas masivamente paralelas para lograr este cometido.Item Plano general, sistema operativo y protocolo de envío de información para el control de máquinas de automatización industrial(Universidad Católica San Pablo, 2015) Álvarez Valera, Hernán Humberto; Barrios Aranibar, DennisHoy en día, la automatización industrial es la clave de éxito de muchas empresas, ya que se emplea el criterio de “producción en masa “. Empresas como Coca cola o Compaq, desarrollan o tercer izan su propia tecnología para controlar sus máquinas de automatización controlando grandes cantidades de procesos de manera simultánea para cumplir sus objetivos. Este tipo de tecnología suele ser cerrada y costosa en adquisición y configuración. En este trabajo de investigación, se estudiarán algunos métodos de planificación de procesos y algunos dispositivos de procesamiento, para luego detallar la forma de controlar máquinas de automatización con varias líneas de producción desde un ordenador personal con un sistema operativo de propósito general, usando métodos de administración de procesos, control de hardware, una correcta configuración de un sistema operativo convencional y métodos de planificación de envío de información por Universal Serial Bus (USB) logrando un sistema robusto, estable en el tiempo y escalable.Item Actualización dinámica del modelo Bag of Visual Words para la generación de visualizaciones de colecciones dinámicas de imágenes(Universidad Católica San Pablo, 2015) Fajardo Portugal, Anthony Armando; San Román Salazar, Frizzi AlejandraHoy en día, muchos conjuntos de datos disponibles son dina´micos, es decir, que evolucionan a medida que nuevos elementos son gradualmente agregados o removidos. En este ámbito, es importante contar con representaciones visuales que acepten conjuntos de datos dina´micos. Este trabajo de investigación busca principalmente adaptar el método Bag of Visual Words (BOVW) estático, para que acepte un comportamiento dina´mico, cuando los conjuntos de entrada sean incrementales. Esta actualización no debería alterar la efectividad en cuanto a recuperación y agrupamiento de imágenes se refiere. Se consideró de forma general, el Vector Space Model (VSM) ya que presentó mejores resultados en cuanto a la discriminación de clases. Además, el VSM convencional no es incremental, es decir, nuevas adiciones a la colección fuerzan el re-cálculo del espacio de datos y de las disimilitudes anteriormente computadas. En este sentido, se considera un nuevo modelo incremental basado en el VSM (Incremental Vector Space Model (iVSM)) en nuestros estudios comparativos. El iVSM presento´ los mejores resultados cuantitativos y cualitativos en diversas configuraciones probadas. Los resultados de la evaluación se presentan y se ofrecen recomendaciones sobre la aplicación de diferentes medidas de similitud de imágenes en tareas de análisis visual.Item Segmentación de imágenes por medio de redes complejas y superpíxeles: estudio comparativo y caracterización estadística de las redes(Universidad Católica San Pablo, 2015) Cuadros Linares, Oscar Alonso; Santo Batista Neto, Joao do EspíritoCon las recientes investigaciones en teoría de Redes complejas, el problema de agrupamiento en grafos ha experimentado una mejora considerable, tanto en el tiempo de procesamiento como en la calidad de las segmentaciones. Dado que el problema de agrupamiento en grafos esta´ relacionado con la segmentación de imágenes, es posible considerar métodos de agrupamiento en grafos, particularmente algoritmos de detección de comunidades en redes complejas para el problema de segmentación de imágenes. Sin embargo, la segmentación de imágenes basada en redes complejas presenta una limitación fundamental, que es el número excesivo de nodos en la red. En este trabajo es adoptada una estrategia de redes complejas para segmentación de imágenes precisa y rápida. Para lidiar con el problema de la cantidad elevada de nodos en la red, es incorporado el concepto de Superpíxeles. Experimentos previos de esta estrategia mostraron segmentaciones de buena calidad y con bajo tiempo de procesamiento. Sin embargo, no fueron realizados estudios comparativos con diversos algoritmos de detección de comunidades, además de no existir una caracterización estadística de los grafos generados a partir de imágenes. En este trabajo fue probado un nuevo algoritmo de detección de comunidades, con resultados de buena calidad. Por otro lado, una de las principales contribuciones de esta tesis, es caracterización del grafo generado, con resultados reveladores que dan pie a diversas investigaciones futuras.Item Alineamiento local de bordes para el reconocimiento de bocetos del rostro(Universidad Católica San Pablo, 2017) Palomino Cisneros, Veruska; Gutiérrez Cáceres, Juan CarlosEl reconocimiento automático de bocetos, independientemente de las variaciones en la expresión y oclusión, es un problema desafiante. En dicho reconocimiento, un boceto es dibujado basado en la descripción de las víctimas o testigos de un atentado para ser comparado con las fotografías de una base de datos y poder facilitar su identificación. Se han propuesto diversos algoritmos para solucionar este problema, muchos de los cuales usan procesos de síntesis para obtener sus resultados. La técnica propuesta plantea el uso de los bordes del rostro que han sido detectados para la obtención de características que se originan a partir de los píxeles del borde. Esto forma un descriptor que corresponde a los bordes de la imagen denominado “borde cadena”. Cada cadena es comparada con otra usando el algoritmo de alineamiento local de Smith Waterman. La clase a la que corresponde cada imagen es identificada basándonos en el número de características que se han agrupado por su similitud. La ventaja que ofrece el método es el uso de una única imagen de entrenamiento por clase. Las pruebas se realizaron sobre las bases de datos CUHK, AR y Feret, obteniéndose resultados óptimos en comparación a métodos propuestos con anterioridad.Item Localización y mapeo simultáneo por robots móviles con ruedas basados en mapas de ocupación y matrices dispersas(Universidad Católica San Pablo, 2018) Morales Muñoz, Elizabeth; Barrios Araníbar, DennisEl trabajo presentado a continuación se enfoca en almacenar posiciones previas y posteriores de las lecturas (sensores) optando por Simultaneous Localization and Mapping (SLAM), para almacenar todos los estados percibidos del ambiente. Se incluyó sensores de profundidad para percibir el ambiente y en cuanto a la orientación, se trabajó con los encoders de las ruedas. Los encoders permiten aplicar odometría, una técnica que retorna tres valores importantes. La posición en 2D (x,y) y el ángulo de orientación del robot. A medida que inicia el envío de las lecturas de los sensores, se grafica el resultado, en tiempo real. Pero a medida que la información de los sensores, se incrementa se aplican diferentes estructuras de almacenamiento, que mejoran el desempeño. Las técnicas más utilizadas en mapeamiento y que se pusieron en contraste en este trabajo, son los mapas topológicos y los mapas de ocupación. En cuanto a los mapas de ocupación, definimos que la ventaja principal, se encuentra en el almacenamiento práctico para la percepción retornada por el robot. Las desventajas principales son, el almacenamiento de datos en matrices de n x n, las cuales desperdician memoria debido a los recorridos del robot, en ambientes complejos. Los mapas topológicos por otro lado, tienen por ventaja principal el manejo eficiente de memoria debido a que trabajan con grafos. Con respecto a las desventajas en el abordaje con grafos, la principal se resume en la función que convierte un grafo en un mapa. Esta complejidad se encuentra en la distribución de ambientes en nodos y el retorno de las características de ese mapeamiento. La estructura propuesta MPTE-SLAM, surge tanto de las ventajas en los mapas topológicos y los de ocupación. MPTE-SLAM, es una matriz dispersa con nodos del tipo matriz, que almacena los valores retornados de la odometría, y se actualiza dando forma a los mapas. Los resultados obtenidos de todos los procesos, retornan un mapa adecuado del ambiente y el recorrido de este, con un mejor manejo de la memoria brindando un pequeño aporte al trabajo de mapeamiento con sensores de profundidad. Los mapas resultantes en la segunda parte de los resultados, poseen mayor precisión y mejor uso de la memoria. Pudiendo concluir, que esta estructura dispersa de nodos matriz, realmente genera una intersección de las ventajas en las técnicas más utilizadas. En cuanto a la trata de las actualizaciones, también mejora el resultado cuando es comparado con una matriz de ocupación.Item Control visual de un brazo manipulador con 7GDL, en base a visión monocular, para el seguimiento de objetivos(Universidad Católica San Pablo, 2018) Tejada Begazo, María Fernanda; Barrios Aranibar, DennisLa necesidad de incrementar la producción de las grandes empresas en la Primera Revolución Industrial permitió el desarrollo de nuevas máquinas, tecnologías y actividades, configurando el entorno perfecto para la aplicación de máquinas y procedimientos autónomos como los brazos manipuladores. En la última década se han ampliado las actividades que realizan los brazos manipuladores a diversas áreas como rescate, medicina e industria aeroespacial. La principal tarea de un brazo manipulador es alcanzar un objetivo por medio de sus elementos perceptivos. Esta tarea conlleva escoger los sensores necesarios para percibir el mundo tomando en cuenta el costo, el peso y el espacio. En esta investigación se dará solución a este problema con el uso de un sensor de visión, es decir una cámara. El mecanismo de control que se presenta se basa en dividir el movimiento tridimensional en dos movimientos sobre dos planos: Uno de estos planos es el mismo que el plano de la cámara (plano XY ) y el otro plano será perpendicular al primero y se refiere a la profundidad (plano XZ). El movimiento del objetivo en el plano de la cámara será calculado por medio del flujo óptico, es decir la traslación del objetivo del tiempo t al t + 1 en el plano XY . En cambio, el movimiento en el plano de la profundidad se estimará mediante el filtro de Kalman usando las variaciones de la traslación obtenida del flujo óptico y de la rotación dada por la matriz de cinemática directa. Finalmente, el movimiento planificado en cada plano se ejecutará de forma intercalada infinitesimalmente, obteniendo así un movimiento continuo para los tres ejes coordenados (XY Z). Los resultados experimentales obtenidos, han demostrado que se realiza un camino limpio y suavizado. Se han llevado a cabo pruebas con diferentes intensidades de iluminación, mostrando un error promedio de la trayectoria de movimiento de µx,y,z = 5.05, 4.80, 3.0 en centímetros con iluminación constante, por lo que se tiene una desviación estándar σx,y,z = 2.21, 2.77, 1.45 en centímetros. Al obtener resultados satisfactorios en las pruebas elaboradas. Se puede concluir que es posible solucionar el problema del movimiento tridimensional de un brazo manipulador dividiéndolo en dos subproblemas que trabajan en planos perpendiculares. Esta solución nos proporciona una trayectoria suave, ya que el mecanismo de control se realiza en cada instante de tiempo obteniendo un movimiento natural.Item Método de extracción de características con filtros de Gabor aplicado al reconocimiento de rostros en tiempo real acelerado por GPU(Universidad Católica San Pablo, 2018) Salinas Tellez, Daniel Marcelo; Gutiérrez Cáceres, Juan CarlosLa eficiencia de los algoritmos computacionales comúnmente se ve afectada por su forma de implementación en cuanto a tiempo de ejecución. Por ejemplo, la implementación utilizando la programación de forma secuencial, la cual fue aceptada durante algunos años hasta que surgió´ la necesidad de acelerar los procesos de los algoritmos. Esta necesidad apareció porque a medida que el tiempo avanzó, las personas empezaron a requerir una pronta respuesta por parte de estos, y para dar solución a lo anterior surge la programación de forma paralela. El problema que anteriormente no tomaron en cuenta los programadores es que estos algoritmos, o por lo menos una gran parte de estos, fueron implementados dentro de un paradigma de programación secuencial, y el paso de estos algoritmos de un paradigma a otro no siempre resulta ser sencillo, ya que, al ser una nueva forma de programación, se requiere de un análisis previo para determinar que partes pueden ser pasadas sin necesidad de realizar una modificación en su estructura. Dentro del grupo de algoritmos utilizados para la extracción de características, también se presentan estos problemas de rendimiento en las circunstancias de tratar con imágenes de mayor tamaño, más aun cuando los algoritmos utilizan formulas más complejas para obtener mejor resultado en cuanto a precisión y detalle, como es el caso de los filtros de Gabor. La fórmula de este algoritmo tiene un tiempo elevado al tratar imágenes de mayor tamaño y por lo tanto la respuesta es lenta, y esa lentitud del algoritmo para procesar imágenes puede ser considerado un problema para entornos donde la respuesta debe ser en tiempo real, como por ejemplo el reconocer un rostro y obtener toda su información. En esta tesis realizamos una extracción de características con el método de filtros de Gabor al momento de reconocer un rostro en tiempo real en imágenes 2D captadas por medio de una cámara utilizando estos dos paradigmas (secuencial y paralelo), para determinar su eficiencia en cuanto a tiempo de respuesta.Item Fast algorithms for the optimum-path forest-based classifier(Universidad Católica San Pablo, 2018) Culquicondor Ruiz, Aldo Paolo; Ochoa Luna, José Eduardo; Castelo Fernández, César ChristianPattern Recognition applications deal with ever increasing datasets, both in size and complexity. In this work, we propose and analyze efficient algorithms for the Optimum-Path Forest (OPF) supervised classifier. This classifier has proven to provide results comparable to most well-know pattern recognition techniques, but with a much faster training phase. However, there is still room for improvement. The contribution of this work is the introduction of spatial indexing and parallel algorithms on the training and classification phases of the OPF supervised classifier. First, we propose a simple parallelization approach for the training phase. Following the traditional sequential training for the OPF, it maintains a priority queue to compute best samples at each iteration. Later on, we replace this priority queue by an array and a linear search, in the aim of using a more parallel-friendly data structure. We show that this approach leads to more temporal and spatial locality than the former, providing better speedups. Additionally, we show how the use of vectorization on distance calculations affects the overall speedup and we provide directions on when to use it. For the classification phase, we first aim to reduce the number of distance calculations against the classifier samples and, then, we also introduce parallelization. For this purpose, we elaborate a novel theory to index the OPF classifier in a metric space. Then, we use it to build an efficient data structure that allows us to reduce the number of comparison with classifier samples. Finally, we propose its parallelization, leading to a very fast classification for new samples.Item Generación de resúmenes audivisuales a partir de obras literarias utilizando análisis de emociones(Universidad Católica San Pablo, 2019) Milón Flores, Daniela Fernanda; Gomez Nieto, ErickLa lectura de obras literarias es una actividad esencial para la comunicación y el aprendizaje humano. Sin embargo, varias tareas relevantes como la selección, el filtrado o el análisis en un gran número de obras se vuelven complejas. Para hacer frente a este requisito, se proponen varias estrategias para inspeccionar rápidamente cantidades sustanciales de texto, o recuperar información previamente leída, explotando los datos gráficos, textuales o auditivos. En este trabajo, proponemos una metodología para generar resúmenes audiovisuales mediante la combinación de una composición musical basada en emociones y una animación basada en grafos. Aplicamos algoritmos de procesamiento de lenguaje natural para extraer emociones y personajes involucrados en la obra literaria. Luego, utilizamos la información extraída para componer una pieza musical que acompaña la narración visual de la historia con el objetivo de transmitir la emoción extraída. Para ello, fijamos características musicales importantes como progresión de acordes, tempo, escala y octavas, y asignamos un conjunto de instrumentos que se adapte mejor a cada emoción. Además, animamos un grafo para resumir los diálogos entre los personajes de la obra. Finalmente, para evaluar la calidad de nuestra metodología, realizamos dos estudios con usuarios que revelan que nuestra propuesta proporciona un alto nivel de comprensión sobre el contenido de la obra literaria además de aportar una experiencia agradable al usuario.