En los últimos años, la investigación en el aprendizaje por refuerzo ha visto un inmenso crecimiento impulsado por los éxitos recientes en la realización de tareas que se creían imposibles para las máquinas. Este artículo explora el uso de modelos de aprendizaje por refuerzo profundo (DRL por sus siglas en inglés) para el trading algorítmico en los mercados de financieros. Además, tratando de aprovechar los beneficios que las conexiones residuales aportaron a las redes neuronales convolucionales (CNN por sus siglas en inglés), el investigador intenta replicar las mismas ventajas en las redes neuronales de alimentación hacia adelante (FFNN por sus siglas en inglés). Los datos históricos de los precios de las acciones de Alphabet se utilizaron para crear simulaciones para entrenar y probar el modelo de DRL. A través de un proceso iterativo de experimentación, se probaron diferentes modelos y se ajustaron sus hiperparámetros para maximizar las recompensas acumuladas (ganancias) que obtuvieron en el entorno simulado de prueba. Finalmente, se realizó un experimento final para comparar el rendimiento de FFNN simples y FFNN con conexiones residuales. Los resultados muestran que agregar conexiones residuales y aumentar el número de capas solo empeoró el rendimiento del modelo DRL. Sin embargo, los experimentos muestran aspectos interesantes sobre la aplicación de DRL al trading en los mercados financieros.