Por favor, use este identificador para citar o enlazar este ítem:
http://dspace.unach.edu.ec/handle/51000/16161| Título : | Análisis del balanceo de carga en una red 4G LTE e implementación de un algoritmo de handover horizontal basado en aprendizaje por refuerzo para mejorar la calidad de servicio (QoS). |
| Autor : | Escudero Villa, Pedro Fernando Quiroz Pérez, Gristel Alejandra |
| Palabras clave : | LTE Handover Aprendizaje por refuerzo Q-Learning |
| Fecha de publicación : | 3-dic-2025 |
| Editorial : | Riobamba |
| Citación : | Quiroz P., Gristel A. (2025) Análisis del balanceo de carga en una red 4G LTE e implementación de un algoritmo de handover horizontal basado en aprendizaje por refuerzo para mejorar la calidad de servicio (QoS). (Tesis de grado). Universidad Nacional de Chimborazo. Riobamba, Ecuador. |
| Resumen : | En el presente trabajo, se diseñó un modelo de red 4G LTE y se implementó un mecanismo de handover horizontal basado en el algoritmo de aprendizaje por refuerzo Q-Learning. Su objetivo es mejorar la Calidad de Servicio (QoS) y el balanceo de carga entre celdas. Uno de los principales problemas que enfrentan las redes móviles es la sobrecarga de usuarios, lo que provoca una degradación del rendimiento de la red y afecta de forma directa a la experiencia del usuario. En este trabajo, se propuso una solución que integra un algoritmo inteligente que aprende de su entorno y realiza el proceso de handover hacia celdas vecinas con mejores condiciones. Por medio del simulador Matlab se desarrolló el modelo de red para tres distintos escenarios, cada uno con 5, 10 y 15 celdas, una frecuencia de operación de 2100 MHz y la asignación de servicios a cada usuario de voz, videos o datos. La implementación del algoritmo se realizó a partir de la discretización de los valores del SINR y la carga para definir las acciones posibles a realizarse. Esta selección se rige por medio de la política ε-greedy, que alterna entre la explotación de la mejor acción conocida y la exploración de nuevas opciones. La recompensa se calcula a partir de la combinación de tres parámetros: throughput, balanceo global y la equidad entre las celdas, medido por el índice de Jain. En total, se ejecutaron 180 simulaciones, 60 por cada escenario, registrando sus parámetros antes y después de aplicar el algoritmo. Como resultado se obtuvo una mejora del throughput del 23.92% para el escenario de 5 celdas, 31.03% para el escenario de 10 celdas y el 40.86% para el escenario de 15 celdas. Además, el algoritmo logró mantener una distribución de carga uniforme entre las celdas de los tres escenarios, con un índice de Jain igual o superior a 0.90 y una convergencia estable del proceso de aprendizaje. Los resultados obtenidos demostraron que el algoritmo Q-Learning incrementa el throughput y logra una distribución de carga más equitativa entre las celdas, inclusive en escenarios con alta densidad. |
| Descripción : | In the present work, a 4G LTE network model was designed and a horizontal handover mechanism based on the reinforcement learning algorithm Q-Learning was implemented. It aims to improve Quality of Service (QoS) and load balancing between cells. One of the main problems faced by mobile networks is the overloading of users in cells, which leads to a degradation of network performance and directly affects the user experience. In this work, a solution was proposed that integrates an intelligent algorithm that learns from its environment and performs the handover process toward neighboring cells with better conditions. Using the Matlab simulator, the network model was developed for three different scenarios, each with 5, 10, and 15 cells, an operating frequency of 2100 MHz, and the assignment of voice, video, or data services to each user. The algorithm was implemented by discretizing the SINR and load values to define the possible actions to be performed. This is governed by the ε-greedy policy, which alternates between exploiting the best-known action and exploring new options. The reward is calculated from the combination of three parameters: throughput, overall balance, and fairness between cells, measured by the Jain index. In total, 180 simulations were run, 60 for each scenario, recording their parameters before and after applying the algorithm. The result was a performance improvement of 23.92% for the 5-cell scenario, 31.03% for the 10-cell scenario, and 40.86% for the 15-cell scenario. Furthermore, the algorithm was able to maintain an even load distribution across cells in all three scenarios, with a Jain index equal to or greater than 0.90 and stable convergence of the learning process. The results demonstrated that the Q-Learning algorithm increases performance and achieves a more equitable load distribution across cells, even in high-density scenarios. |
| URI : | http://dspace.unach.edu.ec/handle/51000/16161 |
| ISSN : | UNACH-EC-FI-ITEL |
| Aparece en las colecciones: | Ingeniería en Telecomunicaciones Ingeniería en Telecomunicaciones |
Ficheros en este ítem:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| Quiroz P., Gristel A. (2025) Análisis del balanceo de carga en una red 4G LTE e implementación de un algoritmo de handover horizontal basado en apr.pdf | 2,78 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.
