Departamento de Ciencias de la Computación
Permanent URI for this community
Browse
Browsing Departamento de Ciencias de la Computación by Description "Tesis"
Now showing 1 - 20 of 70
Results Per Page
Sort Options
Item 3D medical image segmentation based on 3D convolutional neural networks(Universidad Católica San Pablo, 2021) Marquez Herrera, Alejandra; Cuadros Vargas, Alex JesúsA neural network is a mathematical model that is able to perform a task automatically or semi-automatically after learning the human knowledge that we provided. Moreover, a Convolutional Neural Network (CNN) is a type of sophisticated neural network that has shown to efficiently learn tasks related to the area of image analysis (among other areas). One example of these tasks is image segmentation, which aims to find regions or separable objects within an image. A more specific type of segmentation called semantic segmentation, makes sure that each region has a semantic meaning by giving it a label or class. Since neural networks can automate the task of semantic segmentation of images, they have been very useful for the medical area, applying them to the segmentation of organs or abnormalities (tumors). Therefore, this thesis project seeks to address the task of semantic segmentation of volumetric medical images obtained by Magnetic Resonance Imaging (MRI). Volumetric images are composed of a set of 2D images that altogether represent a volume. We will use a pre-existing Three-dimensional Convolutional Neural Network (3D CNN) architecture, for the binary semantic segmentation of organs in volumetric images. We will talk about the data preprocessing process, as well as specific aspects of the 3D CNN architecture. Finally, we propose a variation in the formulation of the loss function used for training the 3D CNN, also called objective function, for the improvement of pixel-wise segmentation results. We will present the comparisons in performance we made between the proposed loss function and other pre-existing loss functions using two medical image segmentation datasets.Item A multi-modal emotion recogniser based on the integration of multiple fusion methods(Universidad Católica San Pablo, 2021) Heredia Parillo, Juanpablo Andrew; Ticona Herrera, Regina PaolaPeople naturally express emotions in simultaneous different ways. Thus, multimodal methods are becoming popular for emotion recognition and analysis of reactions to many aspects of daily life. This research work presents a multimodal method for emotion recognition from images. The multi-modal method analyses facial expressions, body gestures and the characteristics of the body and the environment to determine an emotional state, processing each modality with a specialised deep learning model and then applying the proposed fusion method. The fusion method, called EmbraceNet+, consists of a branched architecture that integrates the EmbraceNet fusion method with other fusion methods. The tests carried out on an adaptation of the EMOTIC dataset show that the proposed multi-modal method is effective and improves the results obtained by individual processings, as well as competing with other state-ofthe-art methods. The proposed method has many areas of application because it seeks to recognise emotions in any situation. Likewise, the proposed fusion method can be used in any multi-modal deep learning-based model.Item Actualización dinámica del modelo Bag of Visual Words para la generación de visualizaciones de colecciones dinámicas de imágenes(Universidad Católica San Pablo, 2015) Fajardo Portugal, Anthony Armando; San Román Salazar, Frizzi AlejandraHoy en día, muchos conjuntos de datos disponibles son dina´micos, es decir, que evolucionan a medida que nuevos elementos son gradualmente agregados o removidos. En este ámbito, es importante contar con representaciones visuales que acepten conjuntos de datos dina´micos. Este trabajo de investigación busca principalmente adaptar el método Bag of Visual Words (BOVW) estático, para que acepte un comportamiento dina´mico, cuando los conjuntos de entrada sean incrementales. Esta actualización no debería alterar la efectividad en cuanto a recuperación y agrupamiento de imágenes se refiere. Se consideró de forma general, el Vector Space Model (VSM) ya que presentó mejores resultados en cuanto a la discriminación de clases. Además, el VSM convencional no es incremental, es decir, nuevas adiciones a la colección fuerzan el re-cálculo del espacio de datos y de las disimilitudes anteriormente computadas. En este sentido, se considera un nuevo modelo incremental basado en el VSM (Incremental Vector Space Model (iVSM)) en nuestros estudios comparativos. El iVSM presento´ los mejores resultados cuantitativos y cualitativos en diversas configuraciones probadas. Los resultados de la evaluación se presentan y se ofrecen recomendaciones sobre la aplicación de diferentes medidas de similitud de imágenes en tareas de análisis visual.Item Alineamiento local de bordes para el reconocimiento de bocetos del rostro(Universidad Católica San Pablo, 2017) Palomino Cisneros, Veruska; Gutiérrez Cáceres, Juan CarlosEl reconocimiento automático de bocetos, independientemente de las variaciones en la expresión y oclusión, es un problema desafiante. En dicho reconocimiento, un boceto es dibujado basado en la descripción de las víctimas o testigos de un atentado para ser comparado con las fotografías de una base de datos y poder facilitar su identificación. Se han propuesto diversos algoritmos para solucionar este problema, muchos de los cuales usan procesos de síntesis para obtener sus resultados. La técnica propuesta plantea el uso de los bordes del rostro que han sido detectados para la obtención de características que se originan a partir de los píxeles del borde. Esto forma un descriptor que corresponde a los bordes de la imagen denominado “borde cadena”. Cada cadena es comparada con otra usando el algoritmo de alineamiento local de Smith Waterman. La clase a la que corresponde cada imagen es identificada basándonos en el número de características que se han agrupado por su similitud. La ventaja que ofrece el método es el uso de una única imagen de entrenamiento por clase. Las pruebas se realizaron sobre las bases de datos CUHK, AR y Feret, obteniéndose resultados óptimos en comparación a métodos propuestos con anterioridad.Item An adversarial model for paraphrase generation(Universidad Católica San Pablo, 2020) Vizcarra Aguilar, Gerson Waldyr; Ochoa Luna, Jose EduardoParaphrasing is the action of expressing the idea of a sentence using different words. Paraphrase generation is an interesting and challenging task due mainly to three reasons: (1) The nature of the text is discrete, (2) it is difficult to modify a sentence slightly without changing the meaning, and (3) there are no accurate automatic metrics to evaluate the quality of a paraphrase. This problem has been addressed with several methods. Even so, neural network-based approaches have been tackling this task recently. This thesis presents a novel framework to solve the paraphrase generation problem in English. To do so, this work focuses and evaluates three aspects of a model, as the teaser figure shows. (a) Static input representations extracted from pre-trained language models. (b) Convolutional sequence to sequence models as our main architecture. (c) Hybrid loss function between maximum likelihood and adversarial REINFORCE, avoiding the computationally expensive Monte-Carlo search. We compare our best models with some baselines in the Quora question pairs dataset. The results show that our framework is competitive against the previous benchmarks.Item An interactive visualization method for scientific literature exploration based on textual and image content(Universidad Católica San Pablo, 2020) Pocco Lozada, Ximena Sofia; Gomez Nieto, Erick MauricioNot available.Item Análisis comparativo de técnicas de aprendizaje automático para detectar fraude en tarjetas de crédito(Universidad Católica San Pablo, 2022) Tong Chabes, Luis; Ochoa Luna, Jose EduardoEste estudio resalta la importancia de llevar un control para detectar fraudes en tarjetas de crédito para prevenir diferentes riesgos hacia nuestros bienes. Las técnicas de Aprendizaje Automático han demostrado ser la solución para aprendizaje supervisado. Este trabajo identifica técnicas como Máquinas de Vectores de Soporte, Clasificador Bayesiano Ingenuo, Bosques Aleatorios, Red Neuronal y Extreme Gradiente Boost como las mejores técnicas según los trabajos relacionados. Este trabajo se enfocó en realizar todo el proceso que aborda un proyecto como este, es decir ingeniería de características, preparar los datos, lidiar con el desbalance de datos, entre otros. Se usó como herramienta de evaluación de rendimiento la validación cruzada k-fold para encontrar la mejor parametrización de cada una de estas técnicas, que son evaluadas con métricas de desempeño como exactitud y puntaje f1. A continuación se realiza una comparación de estos resultados agregando pruebas estadísticas como t de estudiante para obtener la técnica más adecuada. Finalmente se obtiene la mejor técnica Red Neuronal que por sus resultados es realmente superior a las técnicas restantes.Item Análisis de técnicas de deep learning para el reconocimiento de atropellos en videos(Universidad Católica San Pablo, 2022) Sanchez Moreno Muñoz, Analuz Kylene; Gutiérrez Cáceres, Juan CarlosUno de los factores más importantes de muerte son los accidentes automovilísticos, un caso particular son los atropellos donde los vehículos colisionan con los peatones, evento que ocurre en unos instantes y en varios casos los vehículos se dan a la fuga dejando heridos a los peatones, una alerta automática de dichos eventos ayudaría a disminuir el factor de muerte de los atropellados. En ese sentido la presente investigación propone usar los videos registrados por las cámaras de vigilancia para realizar el reconocimiento de atropellos mediante el uso de técnicas de Deep Learning analizando las diferentes arquitecturas y propuestas para determinar la técnica mas adecuada para el reconocimiento automático de atropellos.Item Análisis layout de documentos históricos basado en operadores morfológicos y componentes conectados(Universidad Católica San Pablo, 2020) Alarcon Arenas, Sebastian Wilde; Meza Lovon, Graciela LecirethDurante las últimas décadas, el interés en preservar documentos históricos digitales ha ganado considerable atención. Para aprovechar todas las ventajas y oportunidades que ofrecen los documentos digitalizados, es necesario comprender su contenido. El primer paso hacia esa comprensión es determinar los elementos de dicho documento, como figuras, títulos y subtítulos, texto, etc. Esta tesis presenta un nuevo enfoque híbrido para analizar la estructura de los documentos que se basa en operadores morfológicos y componentes conectados. El método propuesto se divide en dos etapas, preprocesamiento, en las que se mejora la calidad de las imágenes del documento; y análisis de layout, en el que identificamos tres tipos de layouts: títulos, párrafos gráficos. Este proceso también incluye un proceso de fragmentación, en el que dividimos la imagen de la página en secciones de manera que mejora la identificación de elementos del documento histórico. Finalmente, se realiza los experimentos en un conjunto de datos que contiene periódicos históricos antiguos, comparándolo con las técnicas base utilizadas para la implementación de esta propuesta.Item Búsqueda por similitud semántica y estructural del contenido aplicada en documentos XML(Universidad Católica San Pablo, 2014) Dongo Escalante, Irvin Franco; Ticona Herrera, Regina PaolaEn estos últimos años la gran cantidad de información que se encuentra sobre internet requiere una nueva manera de estructurarla, para facilitar su representación, manipulación y recuperación; es así como aparece Extensible Mark-up Language (XML) como un estándar para la representación de datos en la Web. Su flexibilidad y la gran demanda que tiene, han permitido que se desarrollen un conjunto de técnicas para la comparación, consulta, clasificación, entre otras. La adopción de dicho estándar permite un mejor manejo y estructura de la información, así como una gran variedad de aplicaciones en diversas áreas del conocimiento. Tal es así como el área de Derecho que se ha elegido como caso de prueba dentro de la presente Tesis. Dicha área está sufriendo una transformación en el manejo y administración de su información (leyes, decretos, contratos, etc.) hacia estándares que tienen como base al XML. Esta transformación toma cada día más fuerza, debido a la necesidad de manejar gran cantidad de documentos heterogéneos donde el análisis de los datos para su recuperación debe realizarse de forma muy especializada. Para ello es necesario un análisis no solo de la estructura del documento sino un estudio del contenido, no por coincidencia de palabras como se está´ haciendo actualmente, sino por el significado real que la palabra representa en el documento, trabajando la parte de sinonimia, polisemia y la relación entre los términos. La presente investigación desarrolla un algoritmo basado en Indexación Semántica Latente (LSI) para la recuperación de información, donde la relación entre palabras esta´ afectada por la ubicación de las mismas dentro del documento; esto quiere decir, que el valor se verá influenciado de acuerdo a la posición en la que se presente (título, descripción, comentarios, etc.). Con este análisis semántico se mejora los resultados de las consultas en cuanto a su precisión debido a que no se descuida la parte estructural de los documentos, lo que proporciona información adicional en cuanto al contexto de la búsqueda. Finalmente, el trabajo se enfoca en la recuperación de información en dos bases de datos Initiative for the Evaluation of XML retrieval (INEX) y Derecho Ambiental como área de aplicación, midiendo su eficiencia mediante un cluster para posteriormente utilizar un ejecutor de consultas.Item Calibración de cámara usando invariantes proyectivas(Universidad Católica San Pablo, 2021) Vilca Vargas, Jose Rodrigo; Loaiza Fernández, Manuel EduardoLos sistemas de seguimiento son un factor clave en diversas áreas, como la realidad virtual y aumentada, reconstrucción 3D, navegación, etc. La tecnología óptica es ampliamente usada debido a su disponibilidad a bajos costos y a que el objeto a seguir no se sobrepone de cables u otros componentes. Es por esto que uno de los principales objetivos en esta área es incrementar el campo de seguimiento sin perder precisión en la captura y respuesta de la posición y orientación 3D de los objetos y, esta precisión está relacionada directamente a una calibración correcta y precisa de cámara. En el método propuesto, buscamos realizar una calibración ´optima usando el reconocimiento de patrones para la calibración inicial. Posteriormente, usaremos las propiedades invariantes proyectivas para obtener patrones proyectivos invariantes en el proceso de adquisición de datos. Luego, usaremos un modelo híbrido de calibración fotogramétrica y autocalibración con los datos obtenidos anteriormente. Y, por ´ultimo, generaremos una optimización de parámetros de la cámara en relación a la información procesada.Item CharText: relacionando texto con visualizaciones para la creación de ayudas visuales en documentos(Universidad Católica San Pablo, 2019) Pinheiro Rodriguez, Joao Valentinno; Poco Medina, JorgeActualmente muchas fuentes de contenido presentan la información utilizando visualizaciones que complementan el texto en los documentos. Sin embargo, para leer este tipo de documentos debemos dividir nuestra atención entre el grafico y el texto. Es por eso que muchos creadores de contenido diseñan documentos interactivos con enlaces visuales que conectan el texto con el grafico. No obstante, para conseguir documentos interactivos se requieren de habilidades en desarrollo web y herramientas especializadas. Por otro lado, existen muchos de documentos estáticos (no interactivos) que podrían aprovecharse y convertirse en documentos interactivos. Es por eso, que presentamos CharText, un método que extrae automáticamente, los enlaces visuales entre un gráfico y el texto de un documento, como parte de un proyecto más ambicioso para automatización de documentos interactivos. Nuestro método encuentra los enlaces visuales mediante comparaciones basadas en la sintáctica, semántica y valores numéricos de las frases y el análisis de los elementos textuales del gráfico. Evaluamos nuestro método utilizando un conjunto de datos propuesto en un trabajo previo, que realiza la misma tarea mediante crowdsourcing (i.e., anotaciones de muchas personas). Proponemos un segundo conjunto de datos, que incluye tres tipos de gráficos: bar charts, line charts y scatter plots. En el primer conjunto de datos, obtenemos una similitud con las anotaciones de los expertos de un 45 %, mientras que el método basado en crowdsourcing obtiene una similitud del 59 %, y en el segundo conjunto de datos obtenemos una similitud de 53 %. A pesar que cuantitativamente no superamos al método basado en crowdsourcing, nuestro método propone un enfoque automático, que no requiere acceder a los datos de la visualización y soporta tres tipos de gráficos, a diferencia del método basado en crowdsourcing, que no es automático y solo fue evaluado en bar charts. Para mostrar la utilidad de nuestro método presentamos dos aplicaciones. La primera es una herramienta que permite la visualización de los enlaces obtenidos a través de overlays (i.e., elementos gráficos sobrepuestos en las imágenes resaltando algún aspecto de la visualización) y la segunda es una aplicación para la conversión automática de voz a overlays.Item Clasificación de la personalidad utilizando procesamiento de lenguaje natural y aprendizaje profundo para detectar patrones de notas de suicidio en redes sociales(Universidad Católica San Pablo, 2022) Lazo Vasquez, Ricardo Manuel; Ochoa Luna, Jose EduardoLa Clasificación automática de Personalidad es un campo de estudio reciente en el área de Inteligencia Artificial. En los últimos años, surgieron diversas aplicaciones en la misma como detección de patologías psicológicas/ psiquiátricas, avances en asistentes personales, criminología, etc. Por otro lado, los modelos de aprendizaje profundo denominados Transformers han tenido un avance importante en el Procesamiento de Lenguaje Natural (NLP) siendo el estado del arte en diversas tareas. Sin embargo, estos modelos han sido poco aprovechados en la tarea de Clasificación automática de Personalidad. En ese sentido, en la presente investigación se propuso investigar los modelos Transformers para la tarea de detección automática de trazos de personalidad basados en la categorización de Myers-Briggs. Asimismo, se usó los modelos de detección de personalidad para identificar tendencias suicidas de personas en redes sociales. Los resultados obtenidos indican que el mejor modelo Transformer para realizar la detección de suicidios es RoBERTa Distil.Item Compartición de secretos con algoritmos genéticos y criptografía caótica(Universidad Católica San Pablo, 2014) Orcoapaza Ortega, Oscar Fernando; Gutiérrez Cáceres, Juan CarlosCon el avance tecnológico en las comunicaciones, se debe garantizar la seguridad en las transacciones comerciales por vía electrónica. Cada vez se ha generado el rompimiento de claves en los sistemas criptográficos, originando la creación de nuevas técnicas de protección de datos como: la compartición de secretos y los algoritmos criptográficos basados en la teoría del caos. Por esta razón, en esta tesis se presenta una técnica para la compartición de secretos, basado en algoritmos gen éticos el cual recibe como entrada un secreto de longitud variable, que es evaluado con la función de aptitud dando como resultado la mejor partición para ese secreto. Luego procedemos a encriptar cada partición por medio de un algoritmo criptográfico caótico simétrico basado en Lorenz, posteriormente el emisor puede enviar cada secreto cifrado por un medio de comunicación hacia el receptor, quien procede a descifrar y juntar todas las particiones del secreto para conocer el secreto original.Item Comportamiento flocado para coordinar enjambres de drones para la búsqueda de objetivos(Universidad Católica San Pablo, 2019) Rosas Menchola, Joshua Cristian; Gutierrez Cáceres, Juan CarlosManipular un grupo de drones y que estos mismos puedan ejecutar tareas específicas, es un gran problema si estos no pueden ser autónomos y a la vez estos puedan realizar un comportamiento coordinado en conjunto. La coordinación en un enjambre de pequeños drones autónomos es un tema importante para la realización de múltiples tareas o misiones. En este trabajo se desarrolla el tema de Inteligencia de Enjambres, esta es una estrategia poderosa que nos ayudará a establecer un tipo de coordinación en un enjambre de pequeños drones. En este trabajo se presenta un modelo novedoso y totalmente descentralizado para la búsqueda de objetivos, el cual está implementado en base al algoritmo de comportamiento flocado (Flocking Behavior) y boids estos unen tres simples reglas: cohesión, separación y alineamiento. Estas reglas nos servirán para establecer un tipo de coordinación y autonomía para un grupo formado por varios drones.Item Construcción de un corpus académico para la generación automática de respuestas a preguntas puesto a prueba en el modelo BETO(Universidad Católica San Pablo, 2023) Meza Lovon, Graciela Lecireth; Ochoa Luna, Jose EduardoEn años recientes, se han publicado una variedad de modelos de aprendizaje profundo que se han destacado en diferentes tareas del procesamiento de lenguaje natural, como la generación automática de respuestas a preguntas. Una de las razones de este éxito, se debe a que dichos modelos incluyen estrategias de aprendizaje, que se enfocan en el uso de mecanismos de atención y transferencia de aprendizaje. A pesar de que el español es uno de los idiomas más hablados del mundo, la mayoría de estos modelos usan corpus en inglés, por lo cual, la comunidad científica que desea experimentar con estos modelos, en español, se ve limitada. En este contexto, esta tesis tiene por objetivo la creación de un corpus en español, y su posterior prueba usando un modelo para la generación automática de respuestas a preguntas. Dicho corpus, llamado Académico, fue creado usando la información de los sílabos de los cursos de la Escuela Profesional de Ciencia de la Computación. El corpus está compuesto por dos subconjuntos: Académico A y Académico B, que contienen 467 y 639 ejemplos, respectivamente. Con el propósito de garantizar la calidad del conjunto creado, se utilizaron métricas para evaluar el corpus, obteniéndose que, para el subconjunto Académico A, el CFR=100%, HQI de las buenas preguntas es 100%, MoOV=0%, Psi=100% y el coeficiente Kappa es 0.8478; mientras que, para el subconjunto Académico B, los valores de las métricas obtenidas fueron: CFR=100%, HQI de 100% para preguntas buenas, MoOV=0%, Psi=100% y un coeficiente Kappa de 0.8092. De esta evaluación, se puede concluir que el corpus Académico posee la calidad necesaria para realizar experimentos en modelos de generación automática de respuestas a preguntas. Además, en esta tesis se realizó un estudio de los modelos para la generación automática de respuestas a preguntas. De dicho estudio, se determinó que BETO es la mejor opción para poner a prueba el corpus creado. A fin de evaluar la implementación del modelo BETO, se diseñaron tres experimentos, a partir de los cuales se obtuvo que, EM=0.987 y F1=0.998, para Académico A; y que EM=0.831 y F1=0.91, para Académico B. En ambos conjuntos de datos, las métricas fueron mejores que las de BETO zero-shot.Item Control visual de un brazo manipulador con 7GDL, en base a visión monocular, para el seguimiento de objetivos(Universidad Católica San Pablo, 2018) Tejada Begazo, María Fernanda; Barrios Aranibar, DennisLa necesidad de incrementar la producción de las grandes empresas en la Primera Revolución Industrial permitió el desarrollo de nuevas máquinas, tecnologías y actividades, configurando el entorno perfecto para la aplicación de máquinas y procedimientos autónomos como los brazos manipuladores. En la última década se han ampliado las actividades que realizan los brazos manipuladores a diversas áreas como rescate, medicina e industria aeroespacial. La principal tarea de un brazo manipulador es alcanzar un objetivo por medio de sus elementos perceptivos. Esta tarea conlleva escoger los sensores necesarios para percibir el mundo tomando en cuenta el costo, el peso y el espacio. En esta investigación se dará solución a este problema con el uso de un sensor de visión, es decir una cámara. El mecanismo de control que se presenta se basa en dividir el movimiento tridimensional en dos movimientos sobre dos planos: Uno de estos planos es el mismo que el plano de la cámara (plano XY ) y el otro plano será perpendicular al primero y se refiere a la profundidad (plano XZ). El movimiento del objetivo en el plano de la cámara será calculado por medio del flujo óptico, es decir la traslación del objetivo del tiempo t al t + 1 en el plano XY . En cambio, el movimiento en el plano de la profundidad se estimará mediante el filtro de Kalman usando las variaciones de la traslación obtenida del flujo óptico y de la rotación dada por la matriz de cinemática directa. Finalmente, el movimiento planificado en cada plano se ejecutará de forma intercalada infinitesimalmente, obteniendo así un movimiento continuo para los tres ejes coordenados (XY Z). Los resultados experimentales obtenidos, han demostrado que se realiza un camino limpio y suavizado. Se han llevado a cabo pruebas con diferentes intensidades de iluminación, mostrando un error promedio de la trayectoria de movimiento de µx,y,z = 5.05, 4.80, 3.0 en centímetros con iluminación constante, por lo que se tiene una desviación estándar σx,y,z = 2.21, 2.77, 1.45 en centímetros. Al obtener resultados satisfactorios en las pruebas elaboradas. Se puede concluir que es posible solucionar el problema del movimiento tridimensional de un brazo manipulador dividiéndolo en dos subproblemas que trabajan en planos perpendiculares. Esta solución nos proporciona una trayectoria suave, ya que el mecanismo de control se realiza en cada instante de tiempo obteniendo un movimiento natural.Item (Delta) - radius IVRL: paradigma de integración de aprendizaje por refuerzo en sistemas multi-agente(Universidad Católica San Pablo, 2016) Camargo Monroy, Jesús Alejandro; Barrios Aranibar, DennisLos sistemas multi-agente han mostrado, por su propia naturaleza, permitir resolver problemas que requieren coordinación y/o cooperación, ello por cuanto permiten representar de forma natural dichas situaciones. Sin embargo, existen algunos problemas relacionados a su representación formal y en consecuencia a su aplicación. El estudio de los modelos formales actuales ha dejado al descubierto algunas de las falencias respecto a su representación y aplicación; con un fallido sistema de comunicación como el problema mayor comúnmente encontrado. Estando al tanto de este problema proponemos : δ-radius Communication Model, una representación formal para la comunicación en sistemas multi-agentes. Los paradigmas dominantes de aprendizaje en el área son Independent Learning e Influence Value Reinforcement Learning. Polos opuestos en relación a la influencia de los agentes respecto a sus compañeros. Independent Learning busca establecer un sistema libre de influencia; mientras tanto, Influence Value Reinforcement Learning presenta un escenario en el cual los agentes son influenciados por todos sus compañeros en un entorno compartido. Basándonos en ambos extremos, una vista unificada de ambos paradigmas es definida: δ-radius Influence Value Reinforcement Learnig. La visión unificada ha de permitir el desarrollo de sistemas intermedios, en los cuales se pueda definir limitaciones explícitas a la comunicación mediante una noción de distancia entre los agentes y teniendo como limitante a δ, una variable que determinara la distancia máxima bajo la cual es posible establecer comunicación entre dos agentes. Más aún, los resultados de los experimentos desarrollados han demostrado que los sistemas intermedios han de tener una menor complejidad algorítmica y una mejor capacidad de convergencia.Item Desarrollo de un bot conversacional médico de dominio cerrado usando conocimiento de enfermedades integrado en BERT(Universidad Católica San Pablo, 2022) Nuñez Montes, Sebastian Alberto; Ochoa Luna, Jose EduardoNo disponible.Item Desarrollo de un modelo híbrido usando modelos de aprendizaje profundo para la recuperación de información multi-modal en texto e imágenes(Universidad Católica San Pablo, 2017) Diaz Zeballos, Miler; Ochoa Luna, José EduardoActualmente el uso de los modelos de Aprendizaje Profundo en muchas áreas de investigación está demostrando excelentes resultados, el área de Recuperación de Información es una de ellas. Dentro de esta área existe una tarea que es la Recuperación de Información en múltiples modalidades. El objetivo principal de esta tarea es proyectar datos de diferentes modalidades dentro de un mismo espacio semántico o crear un modelo para establecer una relación entre estos espacios. En esta investigación se propone dos modelos híbridos intra-modales para tratar con imágenes y textos respectivamente y la elaboración de un modelo para establecer una relación entre ambas modalidades utilizando modelos de Aprendizaje Profundo. Los resultados serán evaluados en varios conjuntos de datos utilizados en el estado del arte para validar el rendimiento del modelo general.