La evolución de la tecnología y la sociedad trae muchos beneficios tanto para las empresas como para las personas. Sin embargo, con los desarrollos de la Inteligencia Artificial, la lucha contra el racismo, la xenofobia o cualquier otro tipo de discriminación sigue teniendo un papel importante en las luchas sociales y el debate público contemporáneos. Por lo tanto, es necesario que, en el desarrollo de diferentes tipos de tecnologías, y especialmente en Machine Learning e Inteligencia Artificial, estos sesgos no se estimulen y aumenten, sino que se disminuyan. Para este propósito, es necesario un método consistente para identificarlos y evaluarlos. Este artículo propone un modelo general para la evaluación del sesgo posterior al desarrollo para modelos de Machine Learning. Para ejemplificar y validar dicho modelo, se evalúan dos modelos, los modelos GPT-2 y GPT-3, con resultados positivos que hablan muy bien de sus procesos de entrenamiento. Encontramos una disminución en la probabilidad de casi 8.6 puntos porcentuales de un comentario negativo –cuando un texto es generado por los modelos y tiene una palabra relacionada a una distinción racial–, en comparación con el caso base donde el texto es generado por un humano y también contiene palabras relacionadas con distinción racial.