S09-05 16

Inteligencia artificial y diversidad

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Celia Andreu-SánchezUniverstitat Autònoma de Barcelona
profile avatar
Miguel Ángel Martín-PascualInstituto Radio Televisión Española

Enfoque

La inteligencia artificial (IA) ha llegado para revolucionar el modo en el que trabajamos en el ámbito de la comunicación. Durante los años 2022 y 2023, son múltiples los proyectos web que han presentado sus IA para un uso masivo, no necesariamente profesional o industrial. En este contexto, se ha desarrollado un nuevo perfil laboral llamado prompt engineer, que hace referencia a la persona encarga de escribir los textos en los sistemas de IA para obtener resultados de diversos tipos: imágenes, audios, vídeos, etcétera. Se sospecha que las IA (y sus algoritmos), lejos de fomentar la diversidad, se nutren de observaciones, bases de datos y continuos aprendizajes que, sin regulación ni corrección alguna, pueden perpetrar estereotipos de diversos tipos, como sesgos de género o raciales. En la presente investigación, nos planteamos como objetivo probar diversos sistemas de IA de creación de imágenes del mercado con diversos prompts o textos con términos inicialmente neutros, como son «una persona», «un hombre» o «una mujer» (en sus versiones en español y traducidos al inglés como: «a person», «a man», y «a woman»), para posteriormente, analizar las imágenes presentadas con respecto a variables como la raza, la edad o el género. En este estudio utilizamos las herramientas DALL·E (OpenAI), Crayion (OpenAI), Leonardo.ai y Bing (Microsoft). Las tres primeras se usan en inglés, mientras que la última se usa en su versión en español. La investigación se desarrolla con el navegador Chrome versión 116.0.5845.187, corriendo en un sistema operativo macOS High Sierra, con una IP localizada en la provincia de Barcelona (España), durante la segunda quincena de noviembre del año 2023. Solo se realiza una búsqueda en cada una de las herramientas con IA seleccionadas y se trabaja con usuarios gratuitos. Se analizan un total de 63 imágenes distribuidas de la siguiente manera: 12 en DALL·E, 27 en Craiyon, 12 en Leonardo.ai y 12 en Bing. Entre otros, encontramos los siguientes resultados: que la raza más representada es la caucásica, con escasa presencia de la raza negra; que la mayoría de los resultados corresponden a personas jóvenes; y que, ante la petición de crear una persona, los sistemas de IA crearon más mujeres que hombres. Este es un trabajo preliminar que presenta resultados en los que se comprueba la ausencia de diversidad en torno a la raza. Ulteriores investigaciones deberían hacerse para analizar cómo los estereotipos y la falta de diversidad puede afectar a la introducción de las herramientas de IA en los diversos contextos profesionales.

Preguntas y comentarios al autor/es

Hay 16 comentarios en esta ponencia

    • profile avatar

      Arlex Darwin Cuellar Rodríguez

      Comentó el 07/12/2023 a las 21:07:23

      Cordial saludo, Celia y Miguel, excelente ponencia, me causa curiosidad el saber, escuchando este avance y la complejidad de la investigación respecto a la lectura de datos, ¿cuanto tiempo tienen destinado para culminar la investigación y si estos avances podrían considerarse, de cierta forma concluyentes, partiendo del tiempo que falte?

    • profile avatar

      Jhon Jaime de la Rosa Bobadilla

      Comentó el 07/12/2023 a las 15:16:54

      ¿El uso inadecuado de las herramientas de IA en el contexto educativo sigue reivindicando el sistema binario sexo-género en las personas sexualmente diversas?

    • profile avatar

      Valentina Vivaldi

      Comentó el 30/11/2023 a las 19:38:17

      Buenas tardes, Celia, y muchas gracias por tu contribución. Me gustaría preguntarte si crees que los sesgos que comentas cambiarían utilizando versiones de pago de IA y si habéis contrastado los datos con un IP extranjero, en o fuera de Europa.
      ¡Gracias y feliz congreso!

      • profile avatar

        Celia Andreu-Sánchez

        Comentó el 30/11/2023 a las 20:21:46

        Gracias por tu comentarios. Ambas preguntas son pertinentes y lo cierto es que no tenemos mucha información al respecto. Sabemos que los buscadores tipo Google trabajan con criterios de geolocalización, sin embargo, no tenemos toda la información sobre cómo funcionan los algoritmos de herramientas de IA. También dudo si las cookies del ordenador pueden afectar a los resultados de prompts. Sin embargo, todavía no tenemos respuestas para todas las preguntas que este tipo de herramientas están planteando. Saludos, Celia.

    • profile avatar

      Carolina Montoya Mejía

      Comentó el 29/11/2023 a las 19:00:01

      Cordial saludo
      Muchas gracias por tan importante ponencia.
      Quisiera saber ¿Cuál sería una factible estrategia para contrarrestar este sesgo en el tema de diversidad - IA?

      • profile avatar

        Celia Andreu-Sánchez

        Comentó el 30/11/2023 a las 08:30:49

        Gracias por tu comentario, Carolina. Yo creo que una opción sería optar por una regulación internacional que obligara o incentivara el uso de algoritmos no sesgados, pero me temo que ahora mismo parece algo improbable.

    • profile avatar

      Eric Gutiérrez

      Comentó el 29/11/2023 a las 18:45:46

      Buenas tardes, Celia. Felicidades por el trabajo, creo que se trata de una perspectiva de la inteligencia artificial que no es evidente a ojos del usuario base y que debería tener más difusión. Estoy de acuerdo en que el problema fundamental se debe a una falta de diversidad en los datos usados para el entrenamiento de los algoritmos. Sin embargo, ¿ hasta qué punto es determinante el grado de precisión de la imagen que se desea crear ? Si al algoritmo le diésemos más detalles, ¿sería capaz de crear una imagen de acuerdo a lo que le decimos de forma precisa, incluso aunque perteneciera a los grupos minoritarios usados durante el entrenamiento? Creo que también es posible solventar este problema modificando el algoritmo de aprendizaje de forma que la inteligencia pondere el número de ejemplos, haciendo que la diversidad de las imágenes creadas no dependa únicamente del número de ejemplos enseñados. Muchas gracias por tu atención.

      • profile avatar

        Celia Andreu-Sánchez

        Comentó el 30/11/2023 a las 08:33:21

        Hola, Eric. Claro, si al algoritmo le damos detalle de qué queremos, claro que podemos reducir o eliminar el sesgo. Es decir, si en el prompt indico que deseo una persona de un género, una edad y perteneciente a un grupo de población determinada, la IA me dará una imagen con esas características con casi total probabilidad. Lo que nos interesaba ver aquí, sin embargo, era ver qué tipo de imágenes nos daba la herramienta IA si no le daba todo ese tipo de detalle. Muchas gracias por tu comentario.

    • profile avatar

      Elena Bandrés Goldáraz

      Comentó el 29/11/2023 a las 15:56:15

      Hola, Celia, gracias por tu interesante comunicación. La verdad es que el problema que se está visibilizando en este congreso es que la nueva profesión que consiste en entrenar a la IA requiere mucho más que conocimientos de ingeniería informática, física o matemáticas o de filología. Requiere sobre todo haber pasado por un intenso proceso de formación donde se neutralicen y eliminen los estereotipos de género, raza y clase social. El punto de vista androcéntrico, caucásico, heterosexual y económicamente pudiente es lo que está dirigiendo y nutriendo a estas inteligencias. Podríamos calificarlo de desastre absoluto si se es consciente de que sólo se cuenta con una pequeña parte de la población mundial pero, eso sí, es la que manda. Y ya que
      Esther ha entrado en este simposio y he visto también su interesante comunicación, le pregunto por aquí también si es capaz de imaginarse cuáles serán los roles de las posibles cibermujeres posthumanas. Porque visto lo visto, mucho me temo que viajarán al futuro con los mismos estereotipos que seguimos teniendo en el presente. Saludos.

      • profile avatar

        Miguel Ángel Martín-Pascual

        Comentó el 30/11/2023 a las 18:09:01

        Hola, Elena. Gracias, creo que , la verdad, tienes toda la razón. Además del punto de vista, está el para qué vamos a utilizar las IA. Y cuanto nos utilizan a la gente. Si la información privada es el precio a pagar por aparentes gratuidades de aplicaciones, la capacidad de recopilar información personal sofisticada crece exponencialmente. Muchas personas participan alegremente en alimentar IA de imágenes propias que pueden y son usadas para generar otras imágenes de las que no tenemos control. ni Económico ni ético. Hasta Sam Altman quiere grabarnos el iris, que es como una huella dactilar. Por otro lado, las posibilidades son apasionantes. Vuelve la filosofía de apocalípticos en integrados... de alguna manera. Es difícil elegir. Saludos cordiales y gracias por tu respuesta a mi pregunta en tu ponencia.

    • profile avatar

      Esther Rizo-Casado

      Comentó el 29/11/2023 a las 13:31:04

      Buenas tardes Celia, te felicito por la claridad de tu ponencia. Mi investigación trata el tema con una metodología más critica y filosófica y también concluye en que el problema son los sesgos intrínsecos en los datasets. Se prone un dataset de imágenes con cuerpos despojados de sexo, raza y especie a modo de experimento. Sería un placer contar con tu opinión. Aquí te dejo el link (puedes poner subtítulos en español desde YouTube): https://cicid.es/ponencia/xenofutures-alternatives-to-hegemonic-imaginaries/

      Un saludo. Esther

    • profile avatar

      Yajing Gao

      Comentó el 28/11/2023 a las 15:15:58

      Buenas tardes, Celia. Quiero expresar mi admiración por su impresionante trabajo. Me gustaría plantearle una pregunta: ¿Cuáles son las razones que usted considera que provocan la falta de diversidad en los sistemas de inteligencia artificial dedicados a la creación de imágenes?
      Un saludo,
      Yajing.

      • profile avatar

        Celia Andreu-Sánchez

        Comentó el 29/11/2023 a las 10:30:17

        Gracias por tu comentario Yajing. La falta de diversidad en los resultados de las herramientas de IA viene dada por la falta de diversidad en los datos de entrenamiento de este tipo sistemas. Los algoritmos aprenden de datos y si esos datos que les ponemos no son diversos lo que sucede es que los resultados tampoco lo son.

        Saludos, Celia.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Egregius congresos

Colaboran

Egregius ediciones