Ciencias de la Computación
Permanent URI for this community
Browse
Browsing Ciencias de la Computación by Description "Tesis"
Now showing 1 - 20 of 49
Results Per Page
Sort Options
Item A multi-modal emotion recogniser based on the integration of multiple fusion methods(Universidad Católica San Pablo, 2021) Heredia Parillo, Juanpablo Andrew; Ticona Herrera, Regina PaolaPeople naturally express emotions in simultaneous different ways. Thus, multimodal methods are becoming popular for emotion recognition and analysis of reactions to many aspects of daily life. This research work presents a multimodal method for emotion recognition from images. The multi-modal method analyses facial expressions, body gestures and the characteristics of the body and the environment to determine an emotional state, processing each modality with a specialised deep learning model and then applying the proposed fusion method. The fusion method, called EmbraceNet+, consists of a branched architecture that integrates the EmbraceNet fusion method with other fusion methods. The tests carried out on an adaptation of the EMOTIC dataset show that the proposed multi-modal method is effective and improves the results obtained by individual processings, as well as competing with other state-ofthe-art methods. The proposed method has many areas of application because it seeks to recognise emotions in any situation. Likewise, the proposed fusion method can be used in any multi-modal deep learning-based model.Item Actualización dinámica del modelo Bag of Visual Words para la generación de visualizaciones de colecciones dinámicas de imágenes(Universidad Católica San Pablo, 2015) Fajardo Portugal, Anthony Armando; San Román Salazar, Frizzi AlejandraHoy en día, muchos conjuntos de datos disponibles son dina´micos, es decir, que evolucionan a medida que nuevos elementos son gradualmente agregados o removidos. En este ámbito, es importante contar con representaciones visuales que acepten conjuntos de datos dina´micos. Este trabajo de investigación busca principalmente adaptar el método Bag of Visual Words (BOVW) estático, para que acepte un comportamiento dina´mico, cuando los conjuntos de entrada sean incrementales. Esta actualización no debería alterar la efectividad en cuanto a recuperación y agrupamiento de imágenes se refiere. Se consideró de forma general, el Vector Space Model (VSM) ya que presentó mejores resultados en cuanto a la discriminación de clases. Además, el VSM convencional no es incremental, es decir, nuevas adiciones a la colección fuerzan el re-cálculo del espacio de datos y de las disimilitudes anteriormente computadas. En este sentido, se considera un nuevo modelo incremental basado en el VSM (Incremental Vector Space Model (iVSM)) en nuestros estudios comparativos. El iVSM presento´ los mejores resultados cuantitativos y cualitativos en diversas configuraciones probadas. Los resultados de la evaluación se presentan y se ofrecen recomendaciones sobre la aplicación de diferentes medidas de similitud de imágenes en tareas de análisis visual.Item Alineamiento local de bordes para el reconocimiento de bocetos del rostro(Universidad Católica San Pablo, 2017) Palomino Cisneros, Veruska; Gutiérrez Cáceres, Juan CarlosEl reconocimiento automático de bocetos, independientemente de las variaciones en la expresión y oclusión, es un problema desafiante. En dicho reconocimiento, un boceto es dibujado basado en la descripción de las víctimas o testigos de un atentado para ser comparado con las fotografías de una base de datos y poder facilitar su identificación. Se han propuesto diversos algoritmos para solucionar este problema, muchos de los cuales usan procesos de síntesis para obtener sus resultados. La técnica propuesta plantea el uso de los bordes del rostro que han sido detectados para la obtención de características que se originan a partir de los píxeles del borde. Esto forma un descriptor que corresponde a los bordes de la imagen denominado “borde cadena”. Cada cadena es comparada con otra usando el algoritmo de alineamiento local de Smith Waterman. La clase a la que corresponde cada imagen es identificada basándonos en el número de características que se han agrupado por su similitud. La ventaja que ofrece el método es el uso de una única imagen de entrenamiento por clase. Las pruebas se realizaron sobre las bases de datos CUHK, AR y Feret, obteniéndose resultados óptimos en comparación a métodos propuestos con anterioridad.Item An interactive visualization method for scientific literature exploration based on textual and image content(Universidad Católica San Pablo, 2020) Pocco Lozada, Ximena Sofia; Gomez Nieto, Erick MauricioNot available.Item Análisis comparativo de técnicas de aprendizaje automático para detectar fraude en tarjetas de crédito(Universidad Católica San Pablo, 2022) Tong Chabes, Luis; Ochoa Luna, Jose EduardoEste estudio resalta la importancia de llevar un control para detectar fraudes en tarjetas de crédito para prevenir diferentes riesgos hacia nuestros bienes. Las técnicas de Aprendizaje Automático han demostrado ser la solución para aprendizaje supervisado. Este trabajo identifica técnicas como Máquinas de Vectores de Soporte, Clasificador Bayesiano Ingenuo, Bosques Aleatorios, Red Neuronal y Extreme Gradiente Boost como las mejores técnicas según los trabajos relacionados. Este trabajo se enfocó en realizar todo el proceso que aborda un proyecto como este, es decir ingeniería de características, preparar los datos, lidiar con el desbalance de datos, entre otros. Se usó como herramienta de evaluación de rendimiento la validación cruzada k-fold para encontrar la mejor parametrización de cada una de estas técnicas, que son evaluadas con métricas de desempeño como exactitud y puntaje f1. A continuación se realiza una comparación de estos resultados agregando pruebas estadísticas como t de estudiante para obtener la técnica más adecuada. Finalmente se obtiene la mejor técnica Red Neuronal que por sus resultados es realmente superior a las técnicas restantes.Item Análisis de técnicas de deep learning para el reconocimiento de atropellos en videos(Universidad Católica San Pablo, 2022) Sanchez Moreno Muñoz, Analuz Kylene; Gutiérrez Cáceres, Juan CarlosUno de los factores más importantes de muerte son los accidentes automovilísticos, un caso particular son los atropellos donde los vehículos colisionan con los peatones, evento que ocurre en unos instantes y en varios casos los vehículos se dan a la fuga dejando heridos a los peatones, una alerta automática de dichos eventos ayudaría a disminuir el factor de muerte de los atropellados. En ese sentido la presente investigación propone usar los videos registrados por las cámaras de vigilancia para realizar el reconocimiento de atropellos mediante el uso de técnicas de Deep Learning analizando las diferentes arquitecturas y propuestas para determinar la técnica mas adecuada para el reconocimiento automático de atropellos.Item Análisis layout de documentos históricos basado en operadores morfológicos y componentes conectados(Universidad Católica San Pablo, 2020) Alarcon Arenas, Sebastian Wilde; Meza Lovon, Graciela LecirethDurante las últimas décadas, el interés en preservar documentos históricos digitales ha ganado considerable atención. Para aprovechar todas las ventajas y oportunidades que ofrecen los documentos digitalizados, es necesario comprender su contenido. El primer paso hacia esa comprensión es determinar los elementos de dicho documento, como figuras, títulos y subtítulos, texto, etc. Esta tesis presenta un nuevo enfoque híbrido para analizar la estructura de los documentos que se basa en operadores morfológicos y componentes conectados. El método propuesto se divide en dos etapas, preprocesamiento, en las que se mejora la calidad de las imágenes del documento; y análisis de layout, en el que identificamos tres tipos de layouts: títulos, párrafos gráficos. Este proceso también incluye un proceso de fragmentación, en el que dividimos la imagen de la página en secciones de manera que mejora la identificación de elementos del documento histórico. Finalmente, se realiza los experimentos en un conjunto de datos que contiene periódicos históricos antiguos, comparándolo con las técnicas base utilizadas para la implementación de esta propuesta.Item Búsqueda por similitud semántica y estructural del contenido aplicada en documentos XML(Universidad Católica San Pablo, 2014) Dongo Escalante, Irvin Franco; Ticona Herrera, Regina PaolaEn estos últimos años la gran cantidad de información que se encuentra sobre internet requiere una nueva manera de estructurarla, para facilitar su representación, manipulación y recuperación; es así como aparece Extensible Mark-up Language (XML) como un estándar para la representación de datos en la Web. Su flexibilidad y la gran demanda que tiene, han permitido que se desarrollen un conjunto de técnicas para la comparación, consulta, clasificación, entre otras. La adopción de dicho estándar permite un mejor manejo y estructura de la información, así como una gran variedad de aplicaciones en diversas áreas del conocimiento. Tal es así como el área de Derecho que se ha elegido como caso de prueba dentro de la presente Tesis. Dicha área está sufriendo una transformación en el manejo y administración de su información (leyes, decretos, contratos, etc.) hacia estándares que tienen como base al XML. Esta transformación toma cada día más fuerza, debido a la necesidad de manejar gran cantidad de documentos heterogéneos donde el análisis de los datos para su recuperación debe realizarse de forma muy especializada. Para ello es necesario un análisis no solo de la estructura del documento sino un estudio del contenido, no por coincidencia de palabras como se está´ haciendo actualmente, sino por el significado real que la palabra representa en el documento, trabajando la parte de sinonimia, polisemia y la relación entre los términos. La presente investigación desarrolla un algoritmo basado en Indexación Semántica Latente (LSI) para la recuperación de información, donde la relación entre palabras esta´ afectada por la ubicación de las mismas dentro del documento; esto quiere decir, que el valor se verá influenciado de acuerdo a la posición en la que se presente (título, descripción, comentarios, etc.). Con este análisis semántico se mejora los resultados de las consultas en cuanto a su precisión debido a que no se descuida la parte estructural de los documentos, lo que proporciona información adicional en cuanto al contexto de la búsqueda. Finalmente, el trabajo se enfoca en la recuperación de información en dos bases de datos Initiative for the Evaluation of XML retrieval (INEX) y Derecho Ambiental como área de aplicación, midiendo su eficiencia mediante un cluster para posteriormente utilizar un ejecutor de consultas.Item Calibración de cámara usando invariantes proyectivas(Universidad Católica San Pablo, 2021) Vilca Vargas, Jose Rodrigo; Loaiza Fernández, Manuel EduardoLos sistemas de seguimiento son un factor clave en diversas áreas, como la realidad virtual y aumentada, reconstrucción 3D, navegación, etc. La tecnología óptica es ampliamente usada debido a su disponibilidad a bajos costos y a que el objeto a seguir no se sobrepone de cables u otros componentes. Es por esto que uno de los principales objetivos en esta área es incrementar el campo de seguimiento sin perder precisión en la captura y respuesta de la posición y orientación 3D de los objetos y, esta precisión está relacionada directamente a una calibración correcta y precisa de cámara. En el método propuesto, buscamos realizar una calibración ´optima usando el reconocimiento de patrones para la calibración inicial. Posteriormente, usaremos las propiedades invariantes proyectivas para obtener patrones proyectivos invariantes en el proceso de adquisición de datos. Luego, usaremos un modelo híbrido de calibración fotogramétrica y autocalibración con los datos obtenidos anteriormente. Y, por ´ultimo, generaremos una optimización de parámetros de la cámara en relación a la información procesada.Item Clasificación de la personalidad utilizando procesamiento de lenguaje natural y aprendizaje profundo para detectar patrones de notas de suicidio en redes sociales(Universidad Católica San Pablo, 2022) Lazo Vasquez, Ricardo Manuel; Ochoa Luna, Jose EduardoLa Clasificación automática de Personalidad es un campo de estudio reciente en el área de Inteligencia Artificial. En los últimos años, surgieron diversas aplicaciones en la misma como detección de patologías psicológicas/ psiquiátricas, avances en asistentes personales, criminología, etc. Por otro lado, los modelos de aprendizaje profundo denominados Transformers han tenido un avance importante en el Procesamiento de Lenguaje Natural (NLP) siendo el estado del arte en diversas tareas. Sin embargo, estos modelos han sido poco aprovechados en la tarea de Clasificación automática de Personalidad. En ese sentido, en la presente investigación se propuso investigar los modelos Transformers para la tarea de detección automática de trazos de personalidad basados en la categorización de Myers-Briggs. Asimismo, se usó los modelos de detección de personalidad para identificar tendencias suicidas de personas en redes sociales. Los resultados obtenidos indican que el mejor modelo Transformer para realizar la detección de suicidios es RoBERTa Distil.Item Compartición de secretos con algoritmos genéticos y criptografía caótica(Universidad Católica San Pablo, 2014) Orcoapaza Ortega, Oscar Fernando; Gutiérrez Cáceres, Juan CarlosCon el avance tecnológico en las comunicaciones, se debe garantizar la seguridad en las transacciones comerciales por vía electrónica. Cada vez se ha generado el rompimiento de claves en los sistemas criptográficos, originando la creación de nuevas técnicas de protección de datos como: la compartición de secretos y los algoritmos criptográficos basados en la teoría del caos. Por esta razón, en esta tesis se presenta una técnica para la compartición de secretos, basado en algoritmos gen éticos el cual recibe como entrada un secreto de longitud variable, que es evaluado con la función de aptitud dando como resultado la mejor partición para ese secreto. Luego procedemos a encriptar cada partición por medio de un algoritmo criptográfico caótico simétrico basado en Lorenz, posteriormente el emisor puede enviar cada secreto cifrado por un medio de comunicación hacia el receptor, quien procede a descifrar y juntar todas las particiones del secreto para conocer el secreto original.Item Comportamiento flocado para coordinar enjambres de drones para la búsqueda de objetivos(Universidad Católica San Pablo, 2019) Rosas Menchola, Joshua Cristian; Gutierrez Cáceres, Juan CarlosManipular un grupo de drones y que estos mismos puedan ejecutar tareas específicas, es un gran problema si estos no pueden ser autónomos y a la vez estos puedan realizar un comportamiento coordinado en conjunto. La coordinación en un enjambre de pequeños drones autónomos es un tema importante para la realización de múltiples tareas o misiones. En este trabajo se desarrolla el tema de Inteligencia de Enjambres, esta es una estrategia poderosa que nos ayudará a establecer un tipo de coordinación en un enjambre de pequeños drones. En este trabajo se presenta un modelo novedoso y totalmente descentralizado para la búsqueda de objetivos, el cual está implementado en base al algoritmo de comportamiento flocado (Flocking Behavior) y boids estos unen tres simples reglas: cohesión, separación y alineamiento. Estas reglas nos servirán para establecer un tipo de coordinación y autonomía para un grupo formado por varios drones.Item Construcción de un corpus académico para la generación automática de respuestas a preguntas puesto a prueba en el modelo BETO(Universidad Católica San Pablo, 2023) Meza Lovon, Graciela Lecireth; Ochoa Luna, Jose EduardoEn años recientes, se han publicado una variedad de modelos de aprendizaje profundo que se han destacado en diferentes tareas del procesamiento de lenguaje natural, como la generación automática de respuestas a preguntas. Una de las razones de este éxito, se debe a que dichos modelos incluyen estrategias de aprendizaje, que se enfocan en el uso de mecanismos de atención y transferencia de aprendizaje. A pesar de que el español es uno de los idiomas más hablados del mundo, la mayoría de estos modelos usan corpus en inglés, por lo cual, la comunidad científica que desea experimentar con estos modelos, en español, se ve limitada. En este contexto, esta tesis tiene por objetivo la creación de un corpus en español, y su posterior prueba usando un modelo para la generación automática de respuestas a preguntas. Dicho corpus, llamado Académico, fue creado usando la información de los sílabos de los cursos de la Escuela Profesional de Ciencia de la Computación. El corpus está compuesto por dos subconjuntos: Académico A y Académico B, que contienen 467 y 639 ejemplos, respectivamente. Con el propósito de garantizar la calidad del conjunto creado, se utilizaron métricas para evaluar el corpus, obteniéndose que, para el subconjunto Académico A, el CFR=100%, HQI de las buenas preguntas es 100%, MoOV=0%, Psi=100% y el coeficiente Kappa es 0.8478; mientras que, para el subconjunto Académico B, los valores de las métricas obtenidas fueron: CFR=100%, HQI de 100% para preguntas buenas, MoOV=0%, Psi=100% y un coeficiente Kappa de 0.8092. De esta evaluación, se puede concluir que el corpus Académico posee la calidad necesaria para realizar experimentos en modelos de generación automática de respuestas a preguntas. Además, en esta tesis se realizó un estudio de los modelos para la generación automática de respuestas a preguntas. De dicho estudio, se determinó que BETO es la mejor opción para poner a prueba el corpus creado. A fin de evaluar la implementación del modelo BETO, se diseñaron tres experimentos, a partir de los cuales se obtuvo que, EM=0.987 y F1=0.998, para Académico A; y que EM=0.831 y F1=0.91, para Académico B. En ambos conjuntos de datos, las métricas fueron mejores que las de BETO zero-shot.Item Control visual de un brazo manipulador con 7GDL, en base a visión monocular, para el seguimiento de objetivos(Universidad Católica San Pablo, 2018) Tejada Begazo, María Fernanda; Barrios Aranibar, DennisLa necesidad de incrementar la producción de las grandes empresas en la Primera Revolución Industrial permitió el desarrollo de nuevas máquinas, tecnologías y actividades, configurando el entorno perfecto para la aplicación de máquinas y procedimientos autónomos como los brazos manipuladores. En la última década se han ampliado las actividades que realizan los brazos manipuladores a diversas áreas como rescate, medicina e industria aeroespacial. La principal tarea de un brazo manipulador es alcanzar un objetivo por medio de sus elementos perceptivos. Esta tarea conlleva escoger los sensores necesarios para percibir el mundo tomando en cuenta el costo, el peso y el espacio. En esta investigación se dará solución a este problema con el uso de un sensor de visión, es decir una cámara. El mecanismo de control que se presenta se basa en dividir el movimiento tridimensional en dos movimientos sobre dos planos: Uno de estos planos es el mismo que el plano de la cámara (plano XY ) y el otro plano será perpendicular al primero y se refiere a la profundidad (plano XZ). El movimiento del objetivo en el plano de la cámara será calculado por medio del flujo óptico, es decir la traslación del objetivo del tiempo t al t + 1 en el plano XY . En cambio, el movimiento en el plano de la profundidad se estimará mediante el filtro de Kalman usando las variaciones de la traslación obtenida del flujo óptico y de la rotación dada por la matriz de cinemática directa. Finalmente, el movimiento planificado en cada plano se ejecutará de forma intercalada infinitesimalmente, obteniendo así un movimiento continuo para los tres ejes coordenados (XY Z). Los resultados experimentales obtenidos, han demostrado que se realiza un camino limpio y suavizado. Se han llevado a cabo pruebas con diferentes intensidades de iluminación, mostrando un error promedio de la trayectoria de movimiento de µx,y,z = 5.05, 4.80, 3.0 en centímetros con iluminación constante, por lo que se tiene una desviación estándar σx,y,z = 2.21, 2.77, 1.45 en centímetros. Al obtener resultados satisfactorios en las pruebas elaboradas. Se puede concluir que es posible solucionar el problema del movimiento tridimensional de un brazo manipulador dividiéndolo en dos subproblemas que trabajan en planos perpendiculares. Esta solución nos proporciona una trayectoria suave, ya que el mecanismo de control se realiza en cada instante de tiempo obteniendo un movimiento natural.Item Desarrollo de un bot conversacional médico de dominio cerrado usando conocimiento de enfermedades integrado en BERT(Universidad Católica San Pablo, 2022) Nuñez Montes, Sebastian Alberto; Ochoa Luna, Jose EduardoNo disponible.Item Empaquetado de esferas paralelo indexado para dominios arbitrarios(Universidad Católica San Pablo, 2022) Cuba Lajo, Ruben Adrian; Loaiza Fernández, Manuel EduardoLos empaquetados de partículas son métodos que se utilizan para llenar de partículas un contenedor. Estos son usados para simular materia granular, la cual tiene varios usos. Los empaquetados de partículas buscan ser densos, sin embargo, los empaquetados de partículas son lentos, no llegan a ser completamente densos y la mayoría solo funcionan en contenedores simples. En la actualidad se han propuesto varias técnicas para lograr un empaquetado denso, disminuyendo significativamente el tiempo de construcción del empaquetado, pero se ha visto poco avance en aumentar la densidad de un empaquetado. Los empaquetados de partículas llegan en promedio a una densidad máxima aproximada de 70% en contenedores rectangulares y cilíndricos, y de 60% en contenedores arbitrarios. La densidad de los empaquetados también se conoce como compactación o fracción sólida. El objetivo de este trabajo es realizar un empaquetado compacto que en contenedores arbitrarios alcance entre el 60% y 70% de compactación. Para ello se toma como base un empaquetado de esferas periódico compacto, que basado en el uso de esferas del mismo tamaño, logra la compactación más alta, es decir, es el más denso. El empaquetado buscado se realiza siguiendo un patrón periódico hexagonal, a este se le añade dos tamaños de esferas, los cuales son menores al tamaño inicial, estas esferas van en los espacios vacíos que deja el empaquetado hexagonal. El método propuesto alcanza densidades en contenedores arbitrarios entre 60% y 70% en tiempos menores a 5 minutos utilizando una optimización paralela sobre el recurso GPU.Item Ensamble de múltiples subconjuntos de datos balanceados aplicado a calificación crediticia(Universidad Católica San Pablo, 2020) Carrillo Pino, Jose Enrique; Barrios Aranibar, DennisLa investigación actual en calificación crediticia no ha prestado atención al desbalance presente en los conjuntos de datos. Por esta razón, en este trabajo se importó un método reciente de ensamble para clasificar datos desbalanceados en el dominio de crédito. Se usaron cuatro clasificadores base de diversas familias, y tres conjuntos de datos heterogéneos como prueba. Luego de ejecutar los experimentos, los resultados son bastante alentadores; el área bajo la curva (AUC) mejoró en diez de doce clasificadores base. Además, los clasificadores ensamblados creados son estadísticamente superiores a los algoritmos de estado del arte Random Forest y XGBoost. Finalmente, al comparar los resultados de este estudio con los resultados de otros estudios en dos conjuntos de datos de referencia se ratifica que los resultados son bastante competitivos.Item Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria(Universidad Católica San Pablo, 2021) Cerpa Salas, Alonso Jesus; Meza Lovon, Graciela LecirethEn los últimos años, las redes neuronales convolucionales se han utilizado ampliamente para resolver problemas como la clasificación de imágenes, la detección de objetos y la segmentación de objetos. Sin embargo, estas redes neuronales requieren de una gran cantidad de datos correctamente etiquetados para funcionar adecuadamente. Por este motivo, los procesos de etiquetado de datos se llevan a cabo reclutando personas que etiquetarán los datos manualmente. Esto es un problema, ya que consume mucho tiempo y dinero, por lo que algunos investigadores han estudiado el uso de sistemas que generan datos sintéticos y a la vez, los etiquetan. Dada esta problemática, en el presente trabajo se plantea un sistema para generar datos sintéticos mediante un renderizador, que utiliza fondos aleatorios (imágenes) y 3 modelos 3D de piezas de maquinaria. Luego, dichos datos sintéticos son etiquetados por nuestro sistema, para las tareas de detección y segmentación de objetos. Adicionalmente, aplicamos un filtro de Gaussian Blur a nuestras imágenes sintéticas para que den mejores resultados en el entrenamiento posterior. Después, nuestro sistema entrena una red neuronal Mask R-CNN (pre-entrenada con el conjunto de datos COCO) con los datos sintéticos con Gaussian Blur generados y etiquetados anteriormente. Finalmente, nuestro sistema realiza pruebas de la red neuronal con datos reales (fotografías de las 3 piezas de maquinaria en el mundo real), donde se consiguen resultados óptimos.Item Una estructura de datos para la consulta visual interactiva por similitud de grandes volúmenes de datos multidimensionales mixtos georeferenciados(Universidad Católica San Pablo, 2021) Reyna Garcia, Victor Raul Stanilao; Gomez Nieto, Erick MauricioActualmente, la visualization de big data representa un gran desafío a los analistas. La mixtura y el alto número de dimensiones en los datos, dificulta realizar consultas en tiempo real. Frente a ello, se propone una nueva forma de indizar grandes volúmenes de datos estáticos multidimensionales de tipos mixtos. Con el propósito de ejecutar simples consultas visuales de similitud sobre estos conjuntos de datos, las cuales estarán asociadas a una ubicación geográfica. Nuestra propuesta presenta una versión inicial donde se utilizó métodos de reducción de dimensionalidad con el propósito de mapear nuestro conjunto de datos a un espacio unidimensional, para luego organizarlos por su similitud. Posteriormente, se desarrolló una siguiente versión, mejorando las desventajas de la anterior. El cual mantiene el cálculo de la matriz de distancias de Gower, pero a partir de este se construye un árbol de similitud, que está conectado a una estructura espacial conocida como QuadTree. Adicionalmente, se presenta un prototipo de análisis exploratorio, que nos permite explotar al máximo las capacidades a ser incluidas en la estructura de datos.Item Evaluación del desempeño de algoritmos bioinspirados adaptados a la generación de barajas en Hearthstone(Universidad Católica San Pablo, 2021) Nuñez Montes, Luis Enrique; Túpac Valdivia, Yván JesúsInspirados en los fenómenos que ocurren en la naturaleza, los algoritmos bioinspirados han demostrado ser altamente eficientes en resolver problemas de optimización, especialmente cuando la cantidad de los datos hace inviable un algoritmo determinista más complejo. Gracias a dichas características, estos algoritmos se adaptan perfectamente al vasto dominio de los videojuegos, los cuales plantean importantes desafíos con múltiples estrategias exitosas. En este trabajo se propone la adaptación de Coyote Optimization Algorithm (COA) y Monarch Butterfly Optimization (MBO) para la generación y mejora de barajas en Hearthstone, un popular videojuego de cartas coleccionables que, precisamente, plantea esta clase de desafíos. Para evaluar el desempeño de estas adaptaciones, se les compara con Map Elites with Sliding Boundaries (MESB), obteniendo resultados alentadores.
- «
- 1 (current)
- 2
- 3
- »