Tesis - Ciencias de la Computación

Permanent URI for this collection

Browse

Recent Submissions

Now showing 1 - 20 of 68
  • Item
    Detección automática y análisis de puntos con alta frecuencia (hotspots) de crímenes en centros urbanos usando aprendizaje profundo
    (Universidad Católica San Pablo, 2024) Salas Luna, Luis Enrrique; Gomez Nieto, Erick Mauricio
    A medida que los datos urbanos provenientes de ciudades crecen, se requieren nuevas formas de procesamiento y visualización, tanto para poder tratarlos como para obtener información útil y fácilmente interpretable, por lo que este trabajo presenta una metodología de procesamiento de datos orientado a la detección temprana de crimen. Abarcaremos tanto la recopilación de datos de centros urbanos mediante el uso de bases de datos y APIs de acceso público, la discretización de datos espaciales que permite una interpretación a nivel de calle de un centro poblado, como la implementación de un modelo predictivo que utiliza información espacio-temporal para dar una estimación de áreas propensas a un incidente delictivo con precisión aceptable. Se utilizar aprendizaje profundo como redes recurrentes y redes convoluciones, así como redes basadas en grafos.
  • Item
    Acelerando el tiempo de busqueda en consultas de tipo Timebox en series de tiempo usando el Segment Buddy Tree con Range Maximun-Minimum Query
    (Universidad Católica San Pablo, 2024) Velasquez Rios, Diego Arturo; Gomez Nieto, Erick Mauricio
    Las series de tiempo son esenciales en una variedad de campos, incluidas las finanzas, la meteorología, la salud y la informática urbana, entre otros. Estos datos se generan y almacenan a un ritmo cada vez mayor. Los analistas generalmente necesitan explorar, comparar y relacionar los datos de múltiples series de tiempo cuyos números pueden oscilar desde las decenas hasta los millares; por ejemplo, múltiples acciones de la bolsa de valores, consumo de energía de las máquinas, etc. llegando a ser millones de datos a explorar. Actualmente, existe una gran demanda para la exploración de datos de series de tiempo a gran escala. Sin embargo, las consultas usadas han demostrado tener un tiempo linealmente proporcional al tamaño de las series de tiempo, lo que las hace poco prácticas. Una de estas consultas difíciles es la consulta de tipo Timebox. En esta investigación, proponemos acelerar la consulta de tipo Timebox haciendo uso de la estructura de datos Buddy Tree y filtrando los resultados con consultas de Range Minimum/Maximum Query (RMQ). Este tipo de búsqueda ha sido recientemente abordado; a diferencia de los resultados obtenidos por el KD-Box, nuestros resultados son obtenidos a partir del conjunto total de datos y no con aproximaciones de las series de tiempo, esto elimina la posibilidad de obtener series que no pertenecen al Timebox y series de tiempo que perteneciendo no son encontradas por el método de búsqueda. Para comprobar nuestras hipótesis realizamos un conjunto de experimentos que evidencian la eficiencia de nuestra propuesta
  • Item
    Generación de terrenos simplificados en 3 dimensiones usando Poisson y el ruido de Perlin en GPU
    (Universidad Católica San Pablo, 2024) Cayro Cuadros, Rodrigo Andre; Gutierrez Caceres, Juan Carlos
    El mercado de los videojuegos se ha convertido en uno de los más lucrativos de los últimos años, tornándose uno de los sectores globales más provechosos tanto en el desarrollo de tecnologías como en lo económico. Se estima que generar ‘a 187.7 mil millones de dólares en 2023 y se prevé que alcance los 200 mil millones en 2026 (Newzoo, 2023). Sin embargo, la generación de terrenos, ampliamente utilizada en videojuegos y aplicaciones gráficas, implica un gran costo en términos de tiempo, complejidad y recursos. Este proceso puede realizarse manualmente o mediante métodos automatizados. Uno de los problemas de los métodos automatizados es que no siempre son personalizables en cuanto a la forma y complejidad del terreno, lo que limita su flexibilidad para adaptarse a diferentes necesidades, como recursos más bajos o un mayor nivel de detalle. Además, a medida que aumenta el tamaño del terreno, su costo computacional se incrementa significativamente. Existen métodos para la generación de terrenos que abordan estos problemas mediante cálculos geométricos, aprendizaje automático o basados en reglas. Sin embargo, muchos de estos métodos tradicionales son secuenciales, evitando un enfoque paralelo, y no siempre son aplicables a todas las formas de terrenos. Nuestra propuesta combina métodos geométricos, como Perlin Noise, con Poisson-Disk Sampling, logrando terrenos de alta calidad y variedad, con una reducción de hasta un 4 % en la complejidad total del número de ti ángulos. Este enfoque, implementado de forma paralela en Graphics Processing Unit (GPU), demuestra un mejor desempeño frente a métodos tradicionales como Diamond Square y Cellular Automata (CA). Además, nuestra metodología permite generar terrenos adaptables para diversas aplicaciones gráficas y diferentes tipos de formas también, manteniendo as´ı un control muy elevado en características clave como calidad, variedad y personalización. Los resultados validan nuestra propuesta como una solución eficiente y versátil para videojuegos y otras aplicaciones graficas.
  • Item
    Un modelo ligero para la rápida detección y clasificación de objetos en movimiento orientado a sistemas inteligentes de vigilancia
    (Universidad Católica San Pablo, 2024) Palma Ugarte, Joaquin Rodrigo; Cayllahua Cahuina, Edward Jorge Yuri
    La detección y clasificación de objetos en movimiento son tareas fundamentales en la vigilancia inteligente. Sin embargo, las soluciones actuales suelen emplear dos procesos aislados para detectar y clasificar objetos en movimiento. Primero, se detectan todos los objetos dentro de la escena y luego se emplea un algoritmo separado para determinar el subconjunto de objetos que están en movimiento. Además, diversas soluciones emplean redes complejas que requieren muchos recursos computacionales, a diferencia de las soluciones livianas que podrían llevar a un uso generalizado. En esta Tesis proponemos TRG-Net, un modelo unificado que se puede ejecutar en dispositivos computacionalmente limitados para detectar y clasificar únicamente objetos en movimiento. Esta propuesta se basa en la arquitectura Faster R-CNN, MobileNetV3 como extractor de características y un método basado en GMM para una búsqueda rápida y flexible de regiones de interés. TRG-Net reduce el tiempo de inferencia al unificar las tareas de detección de objetos en movimiento y clasificación de imágenes, limitando las propuestas de regiones a un número fijo configurable de posibles objetos en movimiento. Los experimentos con vídeos de vigilancia heterogéneos y el conjunto de datos de Kitti para la detección de objetos 2D muestran que nuestro enfoque mejora el tiempo de inferencia de Faster RCNN de 0.176 a 0.149 s, utilizando menos parámetros de 18.91 M a 18.30 M, mientras mantiene la precisión promedio media mAP de 0.423. Por lo tanto, TRG-Net logra compensaciones más tangibles entre precisión y velocidad, y podría aplicarse para abordar problemas del mundo real.
  • Item
    Reducción de redundancia en documentos RDF utilizando propiedades ontológicas
    (Universidad Católica San Pablo, 2023) Zevallos Quispe, Jesamin Melissa; Ticona Herrera, Regina Paola
    La Web Semántica nace como una iniciativa para la integración y combinación de datos de diferentes fuentes, basada en el modelo de datos Resource Descripción Framework (RDF). Aunque la recuperación de la información en RDF ha sido ampliamente estudiada, aún existen limitaciones en cuanto a: (i) consistencia de datos, (ii) redundancia de datos, (iii) escalabilidad en el procesamiento, entre otros. Dado que la Web Semántica se caracteriza por enlazar bases de datos de diferentes fuentes, la probabilidad de obtener resultados redundantes en las consultas aumenta drásticamente. Los problemas con la redundancia de datos son principalmente (i) el espacio que se desaprovecha en el almacenamiento y (ii) el aumento de complejidad en la fase de procesamiento de las consultas. En este contexto, este trabajo propone una técnica que utiliza propiedades ontológicas, para mejorar la recuperación de información RDF a través de la reducción de la redundancia en los datos, manteniendo la consistencia de la información y la mejora del desempeño en el procesamiento de la consulta. La propuesta hace uso de dos propiedades ontológicas, donde owl:sameAs y owl:contains se encargan de reducir la redundancia total y parcial respectiva- mente entre distintos conjuntos. Además, nuestra técnica tomo como base la técnica RDF2NormRDF propuesto por [Ticona Herrera et al., 2015]. Nuestra propuesta fue evaluada utilizando 4 bases de datos disponibles en la web y se definió métricas de evaluación para medir el rendimiento y aplicabilidad, las cuales son: Porcentaje de reducción de número de tripletas, porcentaje de reducción de tamaño en bytes, tiempo promedio de ejecución de reducción, tiempo de lectura de Jena, e información original. Los experimentos demostraron que la técnica propuesta presenta mejores resultados hasta un 25 % en la base de datos de DBpedia, el cual describe diferentes clases de DBpedia.
  • Item
    Framework de algoritmos basados en reconocimiento de rostros para la toma de asistencia automática de alumnos en una institución educativa usando dispositivos móviles
    (Universidad Católica San Pablo, 2024) Laures Garcia, Guillermo Reynaldo; Cayllahua Cahuina, Edward Jorge Yuri
    En la actualidad, las instituciones educativas, tanto en colegios como en universidades, hacen uso de plataformas académicas para gestionar la asistencia de los alumnos en el aula. Por lo general, el proceso implica que el profesor llame a cada alumno por su nombre y apellido, lo cual puede consumir considerable tiempo, especialmente en clases con un gran número de estudiantes. Esta tesis tiene como objetivo desarrollar una herramienta computacional que agilice y optimice el proceso de toma de asistencia en entornos académicos. La solución propuesta consiste en la creación de un framework que contiene una aplicación móvil de registro automático de asistencia en tiempo real, ofreciendo una alternativa eficiente al método convencional que emplean los profesores en la actualidad. La innovación clave de esta herramienta radica en la implementación de técnicas biométricas de reconocimiento facial. Estas técnicas, reconocidas por su modernidad y robustez, han demostrado resultados satisfactorios en diversas aplicaciones. La adopción de esta nueva forma de tomar la asistencia promete reducir significativamente el tiempo dedicado a esta tarea, mejorando la eficiencia del proceso. En esta tesis, el framework propuesto logra una tasa de acierto del 80 % en el reconocimiento en un entorno no controlado durante la toma de asistencia.
  • Item
    Una solución a la cinemática inversa de un brazo robótico antropomorfo utilizando la imitación humana
    (Universidad Católica San Pablo, 2023) Cornejo Arismendi, Victor Alfonzo; Barrios Aranibar, Dennis
    El paradigma de imitación humana en robot humanoides es aplicar una solución para lograr la ejecución de tareas en entornos de trabajo realistas, hechos por humanos y para humanos. Siguiendo esa linea, este trabajo de investigación propone una solución a la cinemática inversa de un brazo antropomorfo de 7 grados de libertad que posee una morfología basada en el ser humano. La propuesta consiste en una técnica que utiliza la observación y réplica sumando métodos matemáticos y computacionales para la creación de conocimiento de soluciones humanas. Se propone un método de reducción de dimensionalidad para la aplicación de una técnica de interpolación no-lineal que sea capaz de almacenar datos expertos tomados y capturados de las posiciones y posturas de brazos humanos realizando distintas actividades. La idea es crear una base de conocimiento para resolver la redundancia de soluciones de un brazo humano y reducirla a una única solución que sea perceptiblemente humana. La propuesta plantea tres fases. La primera es la fase de reducción de dimensionalidad que es la encargada de aplicar métodos matemáticos que reducen los datos expertos a una única variable sin perdidas de información, esto gracias a aprovechar el sistema único de la arquitectura del brazo robótico antropomorfo humanoide. La segunda fase es la encargada de crear y utilizar una función que almacene el conocimiento de las distintas soluciones de la cinemática inversa, utilizando la fase de reducción de dimensionalidad para eliminar el error que podría generarse si el sistema posee más de una sola dimensión. La tercera fase consta de la expansión de dimensionalidad sin pérdida de datos para obtener los datos solución que el brazo robótico requiera, los cuales son los grados rotacionales que sean necesarios para cada motor. La propuesta fue alimentada por datos capturados por un exoesqueleto pasivo creado por el autor. Se recolectaron distintos puntos solución para crear el conocimiento experto de posiciones humanas. Luego del entrenamiento fue probado, obteniendo resultados satisfactorias de convergencia de la función interpoladora y mostrando resultados satisfactorios en un simulador 3D.
  • Item
    Asesor de índices de base de datos usando algoritmos genéticos
    (Universidad Católica San Pablo, 2023) Ttito Amezquita, Josue Joel; Túpac Valdivia, Yván Jesús
    En la actualidad, la mayoría de aplicaciones o sistemas requieren una base de datos. De acuerdo al tipo, tamaño y/o carga de trabajo de la aplicación es que se suele escoger entre bases de datos relacionales y no relacionales. Por ejemplo, las aplicaciones mas conocidas en redes sociales, como Twitter, Facebook, LinkedIn, etc, tienden a usar bases de datos no relacionales, mientras que sistemas profesionales como aplicaciones de banca, utilizan Base de Datos relacionales, debido a que necesitan cumplir las propiedades de Atomicidad, Consistencia, Insolación y Duración (ACID). Una de las características principales de las bases de datos relacionales, es la capacidad de crear índices. Los índices son estructuras de datos que ayudan a agilizar las consultas. La tarea de crear índices es usualmente un trabajo manual, y es el Administrador de la Base de Datos, el encargado en realizarlo. Hay que considerar que cada índice creado, requiere un espacio en disco adicional. Así que indexar toda las Base de Datos no es tan buena idea. El presente trabajo, busca generar de manera autómatica índices en una Base de Datos haciendo uso de los Algoritmos Genéticos. Para ello se considera el problema de la indexación de las tablas, como una tarea a optimizar, donde el resultado deseado es un equilibrio entre reducir el espacio generado por los archivos de los índices y reducir el tiempo de la ejecución de consultas.
  • Item
    Implementación paralela en GPU del modelo oculto de Markov para el alineamiento múltiple de secuencias
    (Universidad Católica San Pablo, 2023) Cervantes Carrasco, Edward Jhosep; Tupac Valdivia, Yvan Jesus
    Actualmente las secuencias de Acido Desoxirribonucleico (ADN) se han convertido en un objeto de estudio amplio, los avances tecnológicos han permitido a los investigadores conocer que el ADN contiene una amplia información, que nos permite conocer las evoluciones biológicas, relaciones de parentesco entre seres vivos, polimorfismos genéticos, predicción de estructuras proteicas, causas y soluciones a diversos problemas biológicos. Las bases de datos con información biológica como colecciones de nucleótidos, aminoácidos, proteinas, genomas, dominios y más estructuras de diferentes especies, se incrementan constantemente y con este crecimiento hacen falta mejorar o crear nuevos métodos tecnológicos que puedan analizar esta informacion. Uno de los procesos más importantes es el alineamiento simultaneo de un conjunto de secuencias biológicas. Esto es conocido como un Alineamiento Múltiple de Secuencias (AMS), el cual es una técnica que consiste en comparar y alinear tres o más secuencias biológicas. El objetivo es encontrar regiones comunes que indiquen una similitud estructural, lo cual es importante para determinar diversas funciones biológicas en la especie. En esta tesis se utiliza el método probabilístico del Hidden Model Markov (HMM) para encontrar un alineamiento de calidad en función del número de secuencias, mínimo crecimiento original de cada secuencia, identidad de secuencias y tiempo completo de la ejecución del método. Para conseguir el objetivo se realizará la implementación en Graphics Processing Unit (GPU), lo que permitirá optimizar el tiempo de construcción del modelo de Markov, entrenamiento de los datos, para lo cual se utilizará el algoritmo de Baum-Welch, con sus respectivos sub-algoritmos que lo conforman. El desarrollo en GPU, también permitirá realizar las pruebas con secuencias biológicas de mayor tamaño. Finalmente los resultados son comparados con Múltiple Alignment using Fast Fourier Transform (MAFFT), el cual ha sido seleccionado como método de comparación por ser actualmente uno de los mejores programas para el AMS.
  • Item
    Desarrollo de un bot conversacional médico de dominio cerrado usando conocimiento de enfermedades integrado en BERT
    (Universidad Católica San Pablo, 2022) Nuñez Montes, Sebastian Alberto; Ochoa Luna, Jose Eduardo
    No disponible.
  • Item
    Construcción de un corpus académico para la generación automática de respuestas a preguntas puesto a prueba en el modelo BETO
    (Universidad Católica San Pablo, 2023) Meza Lovon, Graciela Lecireth; Ochoa Luna, Jose Eduardo
    En años recientes, se han publicado una variedad de modelos de aprendizaje profundo que se han destacado en diferentes tareas del procesamiento de lenguaje natural, como la generación automática de respuestas a preguntas. Una de las razones de este éxito, se debe a que dichos modelos incluyen estrategias de aprendizaje, que se enfocan en el uso de mecanismos de atención y transferencia de aprendizaje. A pesar de que el español es uno de los idiomas más hablados del mundo, la mayoría de estos modelos usan corpus en inglés, por lo cual, la comunidad científica que desea experimentar con estos modelos, en español, se ve limitada. En este contexto, esta tesis tiene por objetivo la creación de un corpus en español, y su posterior prueba usando un modelo para la generación automática de respuestas a preguntas. Dicho corpus, llamado Académico, fue creado usando la información de los sílabos de los cursos de la Escuela Profesional de Ciencia de la Computación. El corpus está compuesto por dos subconjuntos: Académico A y Académico B, que contienen 467 y 639 ejemplos, respectivamente. Con el propósito de garantizar la calidad del conjunto creado, se utilizaron métricas para evaluar el corpus, obteniéndose que, para el subconjunto Académico A, el CFR=100%, HQI de las buenas preguntas es 100%, MoOV=0%, Psi=100% y el coeficiente Kappa es 0.8478; mientras que, para el subconjunto Académico B, los valores de las métricas obtenidas fueron: CFR=100%, HQI de 100% para preguntas buenas, MoOV=0%, Psi=100% y un coeficiente Kappa de 0.8092. De esta evaluación, se puede concluir que el corpus Académico posee la calidad necesaria para realizar experimentos en modelos de generación automática de respuestas a preguntas. Además, en esta tesis se realizó un estudio de los modelos para la generación automática de respuestas a preguntas. De dicho estudio, se determinó que BETO es la mejor opción para poner a prueba el corpus creado. A fin de evaluar la implementación del modelo BETO, se diseñaron tres experimentos, a partir de los cuales se obtuvo que, EM=0.987 y F1=0.998, para Académico A; y que EM=0.831 y F1=0.91, para Académico B. En ambos conjuntos de datos, las métricas fueron mejores que las de BETO zero-shot.
  • Item
    Foreground detection using attention modules and a video encoding
    (Universidad Católica San Pablo, 2023) Benavides Arce, Anthony Alessandro; Mora Colque, Rensso Victor Hugo
    Foreground detection is the task of labelling the foreground (moving objects) or background (static scenario) pixels in the video sequence and it depends on the context of the scene. For many years, methods based on background model have been the most used approaches for detecting foreground; however, their methods are sensitive to error propagation from the first background model estimations. To address this problem, we proposed a U-net-based architecture with a feature attention module, where the encoding of the entire video sequence is used as the attention context to get features related to the background model. Furthermore, we added three spatial attention modules with the aim of highlighting regions with relevant features. We tested our network on sixteen scenes from the CDnet2014 dataset, with an average F-measure of 97.84. The results also show that our model outperforms traditional and neural networks methods. Thus, we demonstrated that feature and spatial attention modules on a U-net based architecture can deal with the foreground detection challenges.
  • Item
    Análisis de técnicas de deep learning para el reconocimiento de atropellos en videos
    (Universidad Católica San Pablo, 2022) Sanchez Moreno Muñoz, Analuz Kylene; Gutiérrez Cáceres, Juan Carlos
    Uno de los factores más importantes de muerte son los accidentes automovilísticos, un caso particular son los atropellos donde los vehículos colisionan con los peatones, evento que ocurre en unos instantes y en varios casos los vehículos se dan a la fuga dejando heridos a los peatones, una alerta automática de dichos eventos ayudaría a disminuir el factor de muerte de los atropellados. En ese sentido la presente investigación propone usar los videos registrados por las cámaras de vigilancia para realizar el reconocimiento de atropellos mediante el uso de técnicas de Deep Learning analizando las diferentes arquitecturas y propuestas para determinar la técnica mas adecuada para el reconocimiento automático de atropellos.
  • Item
    Clasificación de la personalidad utilizando procesamiento de lenguaje natural y aprendizaje profundo para detectar patrones de notas de suicidio en redes sociales
    (Universidad Católica San Pablo, 2022) Lazo Vasquez, Ricardo Manuel; Ochoa Luna, Jose Eduardo
    La Clasificación automática de Personalidad es un campo de estudio reciente en el área de Inteligencia Artificial. En los últimos años, surgieron diversas aplicaciones en la misma como detección de patologías psicológicas/ psiquiátricas, avances en asistentes personales, criminología, etc. Por otro lado, los modelos de aprendizaje profundo denominados Transformers han tenido un avance importante en el Procesamiento de Lenguaje Natural (NLP) siendo el estado del arte en diversas tareas. Sin embargo, estos modelos han sido poco aprovechados en la tarea de Clasificación automática de Personalidad. En ese sentido, en la presente investigación se propuso investigar los modelos Transformers para la tarea de detección automática de trazos de personalidad basados en la categorización de Myers-Briggs. Asimismo, se usó los modelos de detección de personalidad para identificar tendencias suicidas de personas en redes sociales. Los resultados obtenidos indican que el mejor modelo Transformer para realizar la detección de suicidios es RoBERTa Distil.
  • Item
    Segmentación 3D de tumores cerebrales eficiente en memoria
    (Universidad Católica San Pablo, 2022) Maldonado Quispe, Percy; Gutiérrez Cáceres, Juan Carlos
    El diagnóstico temprano y la segmentación precisa de los tumores cerebrales son imprescindibles para un tratamiento exitoso. Desafortunadamente, la segmentación manual es lenta, costosa y, a pesar de la amplia experiencia humana, a menudo es inexacta. En este documento, presentamos una arquitectura para la segmentación de tumores basado en imágenes MRI utilizando una red neuronal convolucional 3D regularizada con autoencoder. Entrenamos el modelo con imágenes Magnetic Resonance Imaging (MRI) segmentadas manualmente: T1, T1ce, T2 y Flair de 285 pacientes con tumores de gravedad, tamaño y ubicación variables. Luego probamos el modelo utilizando datos independientes de 66 pacientes y segmentamos con éxito los tumores cerebrales en tres subregiones: el núcleo del tumor (TC), el tumor potenciador (ET) y el tumor completo (WT). También se explora pasos de preprocesamiento para mejorar el rendimiento de la segmentación. Es importante destacar que nuestro modelo se implementó en una sola unidad gráfica y, por lo tanto, optimiza la segmentación tumoral para un hardware ampliamente asequible. En resumen, se trata de presentar una solución económica y eficiente en memoria para la segmentación tumoral para respaldar el diagnóstico preciso de los tumores cerebrales.
  • Item
    Riesgos del internet de las cosas y su relación con los usuarios
    (Universidad Católica San Pablo, 2022) Aguirre Flores, Jose Alonso Vides; Túpac Valdivia, Yván Jesús
    El presente estudio tiene por objetivo determinar los riesgos del Internet de las cosas y su relación con los usuarios, con el fin de disminuir los riesgos asociados al uso del Internet de las Cosas (IoT), ya que su funcionamiento no depende de la intervención humana sino de sensores inteligentes que recogen información, la comunican, analizan y actúan ofreciendo nuevas formas de interacción con los usuarios. Sin embargo, esto crea nuevas oportunidades para que esa información se vea comprometida exponiendo información sensible y confidencial de los usuarios y como resultado, podría estar expuesto a riesgos cibernéticos. En este sentido, el IoT radica en la capacidad de agregar datos, que actualmente se generan en diferentes formatos; donde aplicativos y/o sensores se conectan a las redes utilizando diferentes protocolos de comunicación, y sin estándares comunes que rijan el funcionamiento de los dispositivos habilitados para IoT. Según lo expuesto, se considera viable esta investigación ya que busca conocer del IoT, sus generalidades, comunicación, amenazas y vulnerabilidades para determinar los riesgos relacionados a IoT y proporcionar metodologías que optimicen la protección de los datos y la intimidad de los usuarios, así como contrarrestar el espionaje de los datos del IoT, a través de una revisión sistemática, basado en la metodología de Barbara Kitchenham.
  • Item
    Una herramienta de visualización interactiva para la generación de ensambles óptimos de clasificadores
    (Universidad Católica San Pablo, 2022) Diaz Espino, Dany Mauro; Gomez Nieto, Erick Mauricio
    En la actualidad existen muchos avances en el área de aprendizaje de máquina. A veces los modelos usados para realizar una determinada tarea no proporcionan los mejores resultados. Una alternativa de solución a este problema es el uso de ensambles de clasificadores, ya que la decisión final estará basada en el conjunto de probabilidades generadas por varios modelos. De esta forma, aunque uno de los clasificadores falle, los resultados tendrán cierto grado de confiabilidad si es que los demás clasificadores aciertan. Con este enfoque también surge la demanda por herramientas que permitan realizar un análisis detallado de cada clasificador perteneciente al ensamble. Es por este motivo que la presente tesis propone el desarrollo de una herramienta de generación y comparación de ensambles óptimos en términos de rendimiento. La herramienta propuesta se apoya en técnicas de visualización para realizar dos tareas principales: proporcionar un análisis detallado de cada clasificador y mostrar las métricas asociadas a cada clasificador para ayudar al usuario en la toma de decisiones.
  • Item
    SCVis: Una herramienta de análisis interactivo del crimen espacio - temporal basado en un enfoque a nivel de calle y bloque para centros urbanos.
    (Universidad Católica San Pablo, 2022) Masca Vilca, Bryan David; Gomez Nieto, Erick Mauricio
    Los centros de seguridad pública, incluso privados, presentan múltiples problemas con la interacción entre el análisis espacial y temporal de los crímenes. La gran cantidad de datos multidimensionales, la variabilidad de tipos criminales, así como la infraestructura y dinamismo urbano complica su análisis. Los principales métodos dentro del análisis del crimen permiten a los analistas de criminología identificar áreas de alto riesgo y asignar recursos tecnológicos y humanos para combatir los delitos de manera asertiva. Aunque estos mantengan su propósito inicial, no están diseñados para permitir un análisis detallado a nivel de calle y bloque. Hemos identificado una nueva forma de visualización a nivel de calle y bloque cuyo fin es analizar la relación de los patrones encontrados a escala fina con la oportunidad delictiva. Comprender estos patrones es crucial a la hora de formular acciones preventivas. Presentamos una herramienta interactiva para la visualización criminal que permite el análisis espacio-temporal de los patrones a nivel de calle y bloque. Esta se basa en una estrategia de agregación de crímenes con un enfoque a nivel de calle, bloque y otros recursos de visualización que permiten analizar relaciones espaciales y temporales, descubriendo puntos críticos donde radica la delincuencia. Por lo tanto, estos hallazgos proporcionan un indicador sobre cómo un diagnóstico a escala fina ayuda a comprender por qué el crimen se desenvuelve, persiste y evoluciona en ubicaciones específicas de las ciudades y por qué ciertos tipos de crímenes aparecen de forma recurrente.
  • Item
    Empaquetado de esferas paralelo indexado para dominios arbitrarios
    (Universidad Católica San Pablo, 2022) Cuba Lajo, Ruben Adrian; Loaiza Fernández, Manuel Eduardo
    Los empaquetados de partículas son métodos que se utilizan para llenar de partículas un contenedor. Estos son usados para simular materia granular, la cual tiene varios usos. Los empaquetados de partículas buscan ser densos, sin embargo, los empaquetados de partículas son lentos, no llegan a ser completamente densos y la mayoría solo funcionan en contenedores simples. En la actualidad se han propuesto varias técnicas para lograr un empaquetado denso, disminuyendo significativamente el tiempo de construcción del empaquetado, pero se ha visto poco avance en aumentar la densidad de un empaquetado. Los empaquetados de partículas llegan en promedio a una densidad máxima aproximada de 70% en contenedores rectangulares y cilíndricos, y de 60% en contenedores arbitrarios. La densidad de los empaquetados también se conoce como compactación o fracción sólida. El objetivo de este trabajo es realizar un empaquetado compacto que en contenedores arbitrarios alcance entre el 60% y 70% de compactación. Para ello se toma como base un empaquetado de esferas periódico compacto, que basado en el uso de esferas del mismo tamaño, logra la compactación más alta, es decir, es el más denso. El empaquetado buscado se realiza siguiendo un patrón periódico hexagonal, a este se le añade dos tamaños de esferas, los cuales son menores al tamaño inicial, estas esferas van en los espacios vacíos que deja el empaquetado hexagonal. El método propuesto alcanza densidades en contenedores arbitrarios entre 60% y 70% en tiempos menores a 5 minutos utilizando una optimización paralela sobre el recurso GPU.
  • Item
    Análisis comparativo de técnicas de aprendizaje automático para detectar fraude en tarjetas de crédito
    (Universidad Católica San Pablo, 2022) Tong Chabes, Luis; Ochoa Luna, Jose Eduardo
    Este estudio resalta la importancia de llevar un control para detectar fraudes en tarjetas de crédito para prevenir diferentes riesgos hacia nuestros bienes. Las técnicas de Aprendizaje Automático han demostrado ser la solución para aprendizaje supervisado. Este trabajo identifica técnicas como Máquinas de Vectores de Soporte, Clasificador Bayesiano Ingenuo, Bosques Aleatorios, Red Neuronal y Extreme Gradiente Boost como las mejores técnicas según los trabajos relacionados. Este trabajo se enfocó en realizar todo el proceso que aborda un proyecto como este, es decir ingeniería de características, preparar los datos, lidiar con el desbalance de datos, entre otros. Se usó como herramienta de evaluación de rendimiento la validación cruzada k-fold para encontrar la mejor parametrización de cada una de estas técnicas, que son evaluadas con métricas de desempeño como exactitud y puntaje f1. A continuación se realiza una comparación de estos resultados agregando pruebas estadísticas como t de estudiante para obtener la técnica más adecuada. Finalmente se obtiene la mejor técnica Red Neuronal que por sus resultados es realmente superior a las técnicas restantes.