Enfoque
Introducción: Los grandes modelos de lenguaje y la inteligencia artificial generativa, como ChatGPT, han ganado influencia en la vida personal y laboral de las personas desde su lanzamiento, y se espera que continúen expandiéndose. A pesar de las promesas convincentes de la inteligencia artificial generativa, esta tecnología alberga sesgos significativos, incluyendo aquellos relacionados con el género. Los entendimientos compartidos a menudo se reflejan en los diálogos, incluso en aquellos generados por la inteligencia artificial, lo que implica que las opiniones de género y los prejuicios de género se reintroducen en la vida social, política y económica. Además, el español, el inglés y el chino son tres de los idiomas más ampliamente utilizados en todo el mundo, con cientos de millones de hablantes nativos y no nativos. Es fundamental investigar si existe sexismo en los tres contextos lingüísticos utilizando ChatGPT, ya que los sesgos de género contribuyen a la formación de patrones de comportamiento y estereotipos que afectan negativamente a mujeres, hombres y personas con diversidad de género.
Objetivo: Investigar la existencia del sexismo hostil y benévolo de ChatGPT-3.5 en el contexto inglés, español y chino.
Proceso de análisis: Traducir 22 ítems del Inventario de Sexismo Ambivalente (ASI) al chino y al español utilizando ChatGPT-3.5; Preguntar estos ítems a ChatGPT-3.5 en el inglés, el español y el chino; Calcular y comparar las puntuaciones de sexismo hostil y benévolo en el contexto de estos tres idiomas.
Resultados: Por un lado, al utilizar el español y el chino, las puntuaciones de sexismo hostil de ChatGPT-3.5 son mayores que las del benévolo, mientras que al usar el inglés, ocurre lo contrario: las del benévolo son mayores que las del hostil. Por otro, en las comparaciones de las puntuaciones de sexismo hostil, las del español son superiores a las del chino y el inglés; en las comparaciones de las del benévolo, las del inglés son superiores a las del español, y las del español son superiores a las del chino.
Conclusiones y Discusión: Usando ASI, el estudio encuentra que ChatGPT-3.5, en el contexto del español, demuestra un sexismo más hostil, mientras que en el contexto del inglés muestra un sexismo más benévolo. Para futuras investigaciones, es necesario realizar más estudios para evitar este sexismo en los tres idiomas. Además, durante la realización de la investigación, se descubrió que OPENAI no permite el inicio de sesión con números de teléfono chinos, lo que podría ser una de las posibles razones por las que los resultados en chino no son prominentes. Esto requería un análisis y verificación adicionales.
Ana Mejón
Comentó el 29/11/2023 a las 21:03:36
Hola Yajing, me ha parecido muy interesante. Quería preguntarte si crees que la IA puede contribuir a que haya un mayor uso de expresiones neutras en castellano para evitar la brecha fe género que has detectado. Un saludo
Yajing Gao
Comentó el 30/11/2023 a las 00:21:26
Gracias por tu pregunta, Ana. Me parece que la IA puede desempeñar un papel importante en la promoción de un lenguaje más inclusivo y neutral en español para abordar la brecha de género. Al desarrollar herramientas y tecnologías que faciliten la identificación y corrección de sesgos de género en el lenguaje puede ser una área en la que la IA puede ser de gran utilidad. Estas herramientas podrían utilizarse tanto en la creación de nuevo contenido como en la revisión y adaptación de textos ya existentes.
También, es fundamental que la implementación de estas soluciones se realice de manera ética y cuidadosa, con la participación de expertas en lingüística y género, para asegurar que la IA contribuya de manera efectiva a la promoción de un lenguaje más inclusivo.
Eric Gutiérrez
Comentó el 29/11/2023 a las 18:29:40
Buenas tardes Yajing. En primer lugar me gustaría darte la enhorabuena por la ponencia. Quisiera saber si, teniendo en cuenta la naturaleza generativa de ChatGPT, sería posible darle pautas para que aprendiera a utilizar un lenguaje que tenga en cuenta los sesgos de género. En principio, creo que debería ser posible. ¿Sabes si esto se está teniendo en cuenta en las nuevas versiones? Muchas gracias :)
Yajing Gao
Comentó el 30/11/2023 a las 00:01:43
Estimada Eric, muy agradecida por su comentario. Sí, estoy de acuerdo en que sería posible proporcionar directrices a ChatGPT para que aprenda a utilizar un lenguaje que tenga en cuenta los sesgos de género. Creo que los modelos de lenguaje de IA se entrenan con datos que a menudo provienen de Internet y pueden reflejar y perpetuar los sesgos presentes en esos datos. Por lo tanto, es un desafío significativo para la comunidad de IA desarrollar métodos efectivos para reducir estos sesgos.
Estoy actualmente en la lista de espera para obtener acceso a ChatGPT-4. Una vez que tenga la oportunidad, me gustaría explorar las conductas de esta nueva versión de ChatGPT en este aspecto.
Sergio Luis Náñez Alonso
Comentó el 29/11/2023 a las 11:00:00
Estimada Yajing, en primer lugar felicitarle por su ponencia y estudio. Me gustaría saber más sobre cómo se calcularon específicamente esas puntuaciones de sexismo hostil y benévolo en los diferentes idiomas. ¿Podría compartir más detalles sobre la metodología utilizada para realizar estos cálculos y cómo se compararon las puntuaciones entre los idiomas? Además, ¿cuál fue el resultado numérico de las diferencias observadas en las puntuaciones entre el español, el chino y el inglés? Aprecio mucho su trabajo y estoy interesado en comprender mejor los detalles de este análisis.
Un saludo y de nuevo, enhorabuena
Yajing Gao
Comentó el 29/11/2023 a las 23:33:42
¡Hola, Sergio! Agradezco tu interés en mi ponencia. He redactado la parte completa de procesos de análisis en la página web de Notion. Podrías verla en este enlace: https://yajing-gao.notion.site/Proceso-de-An-lisis-en-Sexismo-ambivalente-de-chatgpt-3-5-en-el-contexto-ingl-s-espa-ol-y-chino-YAJ-a41c0050d8704577874c3b02bed93f35?pvs=4
Celia Andreu-Sánchez
Comentó el 29/11/2023 a las 10:34:12
Gracias por tu presentación. Me preguntaba si sabrías explicar por qué la herramienta de ChatGPT no permite el acceso con números de teléfonos chinos. Ya sé que no pertenece estrictamente a tu trabajo, pero me pregunto si se sabe que exista una razón oficial al respecto. Gracias.
Saludos, Celia.
Yajing Gao
Comentó el 29/11/2023 a las 17:43:58
Buenas tardes, Celia. Muchas gracias por tu interés. Lamentablemente, el gobierno chino no ha proporcionado ninguna razón oficial para la prohibición del uso de ChatGPT en China. Es posible que esto se deba a que ChatGPT requiere acceso a grandes cantidades de datos de Internet para su aprendizaje y capacitación. Dado que el gobierno chino otorga gran importancia a la seguridad de los datos, ha optado por restringir el uso de ChatGPT en China continental. Además, China ha mantenido durante mucho tiempo un control riguroso sobre el flujo de información en línea desde el extranjero a través del Gran Cortafuegos, el sistema que bloquea sitios importantes como Google, Facebook y otros sitios importantes.
Asimismo, la página web de OpenAI indica que las personas usuarias en China no pueden utilizar ChatGPT, ya que el país no está en la lista de países, regiones y territorios soportados. La portavoz de OpenAI explicó que, debido a las condiciones en algunos países, les resulta difícil o incluso imposible proporcionar servicios de manera consistente con su misión. No obstante, no reveló los detalles específicos de la "condicionalidad" que impide abrir el registro a usuarios en China continental.
Elena Bandrés Goldáraz
Comentó el 28/11/2023 a las 23:54:35
Hola, Yajing. No sólo quiero agradecerte tu investigación sino también felicitarte por hablar los tres idiomas más hablados del planeta. ¡Qué envidia sana me das! Quería preguntarte si en China se considera un problema el que el idioma no visibilice a las mujeres. ¿Quién habla de esto en tu país? ¿Dónde están los focos de discusión? ¿En las universidades? Muchas gracias.
Yajing Gao
Comentó el 29/11/2023 a las 17:30:29
¡Agradezco mucho sus amables palabras! En China, la investigación sobre la discriminación de género en el lenguaje se divide principalmente en dos áreas:
Por un lado, se examina la discriminación de género en el lenguaje desde una perspectiva lingüística. Esta investigación se enfoca principalmente en el idioma inglés, seguido del chino. Además, las personas académicas chinas centran su atención principalmente en las raíces de la discriminación de género en el lenguaje, las estrategias para eliminarla y las diversas formas en que se manifiesta.
Por otro lado, se investiga la discriminación de género en el lenguaje desde distintos campos. Este tipo de investigación se centra principalmente en los libros de enseñanza de inglés, así como en el análisis del lenguaje utilizado en noticias, publicidad y contenidos de redes sociales, con el objetivo de revelar la discriminación de género en el lenguaje de los medios de comunicación y proponer estrategias para erradicarla.
No obstante, la mayoría de estos estudios son tesis de maestría o doctorado. Hay escasa presencia de profesores universitarios especializados en este tema.
Natalia Martínez Pérez
Comentó el 28/11/2023 a las 19:04:19
Estimada Yajing, enhorabuena por su investigación, tan interesante como necesaria. También por lo que implica el manejo de tantos lenguajes al mismo tiempo. Quisiera preguntarle si ha consultado las diferentes guías e investigaciones sobre el sexismo en el lenguaje, ya que por ejemplo en el español se caen en determinados usos sexistas del lenguaje, pero en inglés, aunque no hay una distinción entre masculino/femenino como tal, sí que hay otros usos que hacen que el lenguaje no sea igualitario. También si van a proponer soluciones para paliar esta situación. Muchas gracias.
Yajing Gao
Comentó el 28/11/2023 a las 21:30:33
¡Hola, Natalia! Aprecio mucho tu interés en la ponencia. Sí, he revisado diversas guías e investigaciones sobre el sexismo en el lenguaje y he encontrado que es un problema que afecta a muchas lenguas, incluyendo el español, el inglés y el chino. En español, consulté la guía para el uso del lenguaje inclusivo, mientras que en inglés, como mencioné en la presentación, las investigaciones muestran que las IA asignan ciertas ocupaciones y acciones a un género específico, perpetuando estereotipos en ChatGPT. Por ejemplo, se asume que un médico es hombre y una enfermera es mujer, reforzando roles tradicionales. En chino, los métodos y las conclusiones de las investigaciones son similares a las del inglés. Respecto a las soluciones, es un tema complejo y en evolución. No obstante, se están desarrollando herramientas y técnicas, como el uso de lenguaje inclusivo, para mejorar la igualdad de género en el lenguaje natural.
Deja tu comentario
Lo siento, debes estar conectado para publicar un comentario.
Organizan
Colaboran