S19-03 11

Transformando la Educación: El Impacto de la Inteligencia Artificial Generativa y los Chatbots Conversacionales en la Identidad Digital de Estudiantes y Docentes

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Sara Osuna-AcedoUniversidad Nacional de Educación a Distancia (UNED)

Enfoque

La Inteligencia Artificial Generativa (IAG) y los chatbots conversacionales son tecnologías emergentes que han irrumpido en el panorama educativo. Estas tecnologías prometen cambiar la forma en que se enseña y se aprende, ofreciendo la posibilidad de personalizar el contenido educativo y proporcionar apoyo individualizado no solo a estudiantes sino a todas las personas involucradas en la comunidad educativa. Pero la integración de IAG y chatbots en el aula y la interacción con identidades digitales artificiales plantean también riesgos éticos relacionados con la identidad digital de las personas, el uso responsable de los datos y el rol de docentes y estudiantes.

El presente estudio persigue presentar una visión general del estado actual en integración de IAG y chatbots en la educación. También se busca identificar tendencias, desafíos y oportunidades, prestando especial atención a cómo afectan a la identidad digital de las personas.

La investigación se basa en una extensa revisión de la literatura científica más reciente, un profundo análisis de casos de utilización en el mundo real y en la experiencia del equipo autoral como expertos en la aplicación de tecnología educativa en el aula para respaldar nuestras conclusiones.

En este ensayo, se presenta un análisis crítico de fortalezas y debilidades de la implementación actual de IAG y los chatbots conversacionales en entornos educativos. Además, se discuten los dilemas éticos que plantean para la identidad digital de estudiantes y docentes, y se valora la influencia de estas tecnologías emergentes a los enfoques pedagógicos como la educación para la ciudadanía digital, la educación mediática crítica y la competencia digital de docentes y estudiantes.

Como resultado fundamental de la investigación se identifican las mejores prácticas que han surgido, estableciendo directrices específicas para instituciones, docentes y autoridades educativas. Además, se resaltan áreas prioritarias para posibles investigaciones futuras.

En conclusión, se debe comprender que la introducción de la IAG y los chatbots conversacionales en el aula suponen un cambio en la perspectiva y objeto de la educación tal como la conocemos. Estas transformaciones deben ir acompañados de una revaluación del paradigma educativo que dé pautas sobre qué, cómo y cuándo deben producirse estas interacciones con identidades digitales artificiales. Para ello, se deben considerar las opiniones y perspectivas del profesorado más involucrado en el proceso de adopción tecnológica y, sobre todo, las necesidades de cada estudiante. En última instancia, se aboga por la necesidad de un enfoque reflexivo, ético y multidisciplinar en el desarrollo e integración de estas tecnologías en educación, que ponga el bienestar de estudiantes y docentes en el centro. Solo así se podrá aprovechar su potencial innovador de manera responsable.

Preguntas y comentarios al autor/es

Hay 11 comentarios en esta ponencia

    • profile avatar

      Jonatan Castaño Muñoz

      Comentó el 30/11/2023 a las 10:55:52

      Buenos días y gracias por la presentación. Oskar, Sara, me gustaría preguntaros cuál creéis que es el rol de las IA más locales (sean IAs desarrolladas localmente o IAs basadas en modelos generales como GPT u otros pero entrenadas con datos locales) a la hora de preservar la diversidad, la privacidad de los datos u otros riesgos éticos. Igualmente, me planteaba si creéis que estos modelos locales, si bien son más contextualizados y por tanto adaptados a necesidades específicas, justamente por ello podrían tener más o menos sesgos ¿Cuál es vuestra opinión al respecto? (es algo sobre lo que estoy reflexionando y me encantaría escuchar vuestro punto de vista) ¡Muchas gracias!

      • profile avatar

        Oskar Almazán-López

        Comentó el 01/12/2023 a las 14:44:53

        Sin duda. Y ese es uno de los problemas de la IA, que se genera siempre a partir de una cultura y lengua hegemónicas como es la anglosajona y el inglés en detrimento de otras culturas más minoritarias y lenguas minorizadas. Los desequilibrios en este sentido son siempre peligrosos y desiguales en beneficio de las "mayorías" y la homogneización del pensamiento.https://cdt.org/insights/lost-in-translation-large-language-models-in-non-english-content-analysis/

    • profile avatar

      Verónica Guijas Gento

      Comentó el 30/11/2023 a las 07:24:52

      Hola Oskar y Sara. Muchas gracias por vuestra informativa ponencia. Yo también creo que gracias a las grandes posibilidades de la IA, esta se ha convertido una prioridad estratégica para los países que tratan de convertirse en líderes, pero hay que tener cuidado con su uso y regulación. Para ello contamos con la ética y el derecho: no todo debe aprobarse ni legalizarse, y nos habéis mostrado en la ponencia mejores y peores ejemplos. Creo que las preguntas de dónde está el límite del desarrollo y quién lo pone resultan muy importantes. Es verdad que la IA no sabe lo que hace, no es consciente, y que son las personas que hay detrás, las que tienen que responder por sus acciones. Pero también es cierto, que al final ni siquiera los propios programadores pueden saber concretamente que tipo de actividad llega a realizar la IA, ni pueden explicar qué hizo ni por qué. Creo que aquí tenemos un gran problema, porque entonces los programadores y otras personas implicadas se desentienden si se hace un mal uso de la IA. Y entonces, ¿dónde buscamos responsabilidades?
      Esta no es una pregunta para vosotros, claro, solo una reflexión :)
      Un saludo,
      Verónica

      • profile avatar

        Oskar Almazán-López

        Comentó el 30/11/2023 a las 14:42:50

        En la práctica, la responsabilidad por las malas acciones o consecuencias negativas del mal uso de la IA puede ser difícil de determinar. En muchos casos, puede haber una combinación de factores que contribuyen a un incidente, y puede ser difícil atribuir la responsabilidad a una sola persona o entidad. Sin embargo, es importante que se establezcan mecanismos de responsabilidad para el uso de la IA. Estos mecanismos ayudarán a disuadir el mal empleo de la IA y a garantizar que se utilice de manera segura y responsable.

        Pero hay casos claros, según mi opinión:

        En el caso de un sistema de IA que utiliza datos sesgados para tomar decisiones, la responsabilidad debe recaer en los desarrolladores del sistema por no haber tomado medidas para mitigar el sesgo.
        En el caso de un sistema de IA que se utiliza para cometer un crimen, la responsabilidad puede recaer en el usuario del sistema por usar el sistema para cometer un delito.
        En el caso de un sistema de IA que causa daños a la propiedad o a las personas, la responsabilidad va a recaer en el fabricante del sistema por no haber diseñado el sistema de manera segura.

        Pero la responsabilidad por las malas acciones o consecuencias negativas del mal uso de la IA aún está en desarrollo. A medida que la IA se vuelva más sofisticada, es probable que surjan nuevos desafíos para determinar la responsabilidad.

        • profile avatar

          Verónica Guijas Gento

          Comentó el 30/11/2023 a las 16:26:14

          Sí, gracias por tu respuesta, estoy totalmente de acuerdo contigo en esos casos que citas.
          Y creo que es un desafío que se debería tratar ya, para que haya una clara trazabilidad en el proceso y poder buscar responsabilidades.

    • profile avatar

      Ivanov Amezcua Pérez

      Comentó el 29/11/2023 a las 23:19:40

      Oskar y Sara: sumamente interesante la investigación.
      La IA generativa representa ya un reto importante al menos a niveles éticos en aula. La combinación de la IA con las prácticas tradicionales me parece que es hoy por hoy la mejor salida al reto de estar frente a un grupo de jovencitos que se asoman más a Internet que a los libros.
      Hemos de domar las tecnologías digitales de las que disponemos, preguntarnos el cómo sí para aprovecharlas.
      Gracias por compartir.

      • profile avatar

        Oskar Almazán-López

        Comentó el 30/11/2023 a las 14:56:53

        Desde luego y de momento, yo abogo exactamente por lo mismo, no nos queda más remedio si nos encontramos constreñidos por el especio físico del que disponemos en la escuela. Sin embargo, si contamos con la libertad de espacio que ofrecen los universos virtuales, serían posibles otros recorridos, otras oportunidades. Los principales retos en este caso y como se apunta en nuestra presentación, son la privacidad y la seguridad de los datos que aún no se encuentran correctamente regulados y existen demasiados intereses económicos comandando toda esta revolución. Te invito a que veas este video de la presentación de Metaverso con mentalidad abierta para explorar las posibilidades que podría ofrecer para educación https://www.youtube.com/watch?v=4v1uQ71zskU

    • profile avatar

      Lorena Delgado-Reverón

      Comentó el 29/11/2023 a las 21:51:00

      Muy interesante vuestra ponencia, muchas gracias por compartir. Si consideramos la enseñanza y el aprendizaje desde una perspectiva socioconstructivista, en el que el profesor y el alumno construyen el aprendizaje mediante el diálogo, ¿crees que con este nuevo paradigma de uso de chatbots conversacionales, crees que este proceso se puede ver perjudicado?
      ¡Muchas gracias!

      • profile avatar

        Oskar Almazán-López

        Comentó el 30/11/2023 a las 15:10:27

        Desde una perspectiva socioconstructivista, el aprendizaje se considera un proceso activo en el que los estudiantes construyen su propio conocimiento a través de la interacción con otros. Este proceso se basa en la colaboración, la negociación de significados y la mediación social. Los chatbots conversacionales pueden ser una herramienta útil para apoyar el aprendizaje socioconstructivista. Pueden proporcionar a los estudiantes oportunidades para practicar sus habilidades de comunicación y colaboración, y para explorar ideas y conceptos de forma reflexiva. Sin embargo, es importante tener en cuenta que los chatbots no pueden reemplazar a los profesores. Los profesores siguen siendo esenciales para proporcionar orientación, apoyo y retroalimentación a los estudiantes, sobre todo en el aspecto social. Sin embargo, es importante utilizarlos de forma adecuada y consciente de sus limitaciones. Por ejemplo, pueden ser frustrantes si no se sabe como preguntar y bastante aburridos.

        Por otra parte , pensando en evoluciones de la teoría socio constructivista como el conectivismos, creo que se han quedado obsoletas en este aspecto. El conectivismo comienza y gana fuerza en un momento en el que la web 2.0 estaba en pleno desarrollo y habla de la web como una serie de conexiones, una red para acceder al conocimiento distribuido. Ahora tenemos entidades digitales autónomas que pueden educar y moldear nuestra conciencia (para bien y para mal). Esto hace necesario crear un nuevo marco teórico que de pautas y permita regular estas nuevas identidades digitales artificiales y su interacción con los otros en un entorno educativo o con fines educativos.

    • profile avatar

      Oskar Almazán-López

      Comentó el 29/11/2023 a las 20:05:01

      Gracias por tu pregunta Zoraida. Una de las principales alternativas para personalizar el uso educativo de los asistentes conversacionales es utilizar algoritmos de aprendizaje automático. Estos algoritmos pueden utilizarse para analizar los datos de los/las estudiantes e identificar sus fortalezas y debilidades. A partir de esta información, los asistentes conversacionales pueden adaptar su contenido y su enfoque para satisfacer las necesidades específicas de cada estudiante.
      Otra alternativa es utilizar sistemas de recomendación que sugieren a los estudiantes contenido relevante en función de sus intereses y necesidades. Por ejemplo, un asistente conversacional podría proponer a un estudiante que tiene dificultades con las matemáticas que practique con problemas de un nivel de dificultad más bajo.

      Los asistentes conversacionales también pueden personalizar su utilización mediante la interacción directa con los estudiantes. Podría preguntar a un estudiante qué le gustaría aprender o qué tipo de ayuda necesita. A partir de esta información, el asistente conversacional podría adaptar su contenido y su enfoque para satisfacer las necesidades específicas del estudiante e incluso elaborar un programa personalizado para ello.

      Habría más opciones dependiendo del ámbito de aplicación y de la edad de los aprendices. Un saludo.

    • profile avatar

      Zoraida Callejas Carrión

      Comentó el 28/11/2023 a las 20:07:14

      Enhorabuena por vuestra comunicación! Quería preguntaros sobre qué alternativas pensáis que pueden utilizarse para poder personalizar el uso educativo de los asistentes conversacionales teniendo en cuenta los diferentes progresos que puedan tener los estudiantes. Muchas gracias.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Egregius congresos

Colaboran

Egregius ediciones