Mostrar registro simples

dc.contributor.advisorPavlich Mariscal, Jaime Andrés
dc.contributor.authorVivas Fonseca, Juan Diego
dc.coverage.spatialColombiaspa
dc.date.accessioned2022-08-25T17:41:38Z
dc.date.available2022-08-25T17:41:38Z
dc.date.created2022-06-17
dc.identifier.urihttp://hdl.handle.net/10554/61532
dc.description.abstractLa evolución de la tecnología y la sociedad trae muchos beneficios tanto para las empresas como para las personas. Sin embargo, con los desarrollos de la Inteligencia Artificial, la lucha contra el racismo, la xenofobia o cualquier otro tipo de discriminación sigue teniendo un papel importante en las luchas sociales y el debate público contemporáneos. Por lo tanto, es necesario que, en el desarrollo de diferentes tipos de tecnologías, y especialmente en Machine Learning e Inteligencia Artificial, estos sesgos no se estimulen y aumenten, sino que se disminuyan. Para este propósito, es necesario un método consistente para identificarlos y evaluarlos. Este artículo propone un modelo general para la evaluación del sesgo posterior al desarrollo para modelos de Machine Learning. Para ejemplificar y validar dicho modelo, se evalúan dos modelos, los modelos GPT-2 y GPT-3, con resultados positivos que hablan muy bien de sus procesos de entrenamiento. Encontramos una disminución en la probabilidad de casi 8.6 puntos porcentuales de un comentario negativo –cuando un texto es generado por los modelos y tiene una palabra relacionada a una distinción racial–, en comparación con el caso base donde el texto es generado por un humano y también contiene palabras relacionadas con distinción racial.spa
dc.formatPDF
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherPontificia Universidad Javeriana
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectInteligencia artificial
dc.subjectSesgo
dc.subjectAprendizaje de maquina
dc.subjectProcesamiento de lenguaje natural
dc.subjectGeneración de lenguaje natural
dc.subjectRacismo
dc.subjectXenofobia
dc.subjectTwitter
dc.titleBias & Artificial Intelligence. ¿Are we all biased?spa


Arquivos deste item

ArquivosTamanhoFormatoVisualização
attachment_0_Te ... r-AI---Segunda-Entrega.pdf302.7Kbapplication/pdfVisualizar/Abrir

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

http://creativecommons.org/licenses/by-nc-nd/4.0/
Exceto quando indicado o contrário, a licença deste item é descrito como http://creativecommons.org/licenses/by-nc-nd/4.0/

© AUSJAL 2022

Asociación de Universidades Confiadas a la Compañía de Jesús en América Latina, AUSJAL
Av. Santa Teresa de Jesús Edif. Cerpe, Piso 2, Oficina AUSJAL Urb.
La Castellana, Chacao (1060) Caracas - Venezuela
Tel/Fax (+58-212)-266-13-41 /(+58-212)-266-85-62

Nuestras redes sociales

facebook Facebook

twitter Twitter

youtube Youtube

Asociaciones Jesuitas en el mundo
Ausjal en el mundo AJCU AUSJAL JESAM JCEP JCS JCAP