Instituto Tecnologico y de Estudios Superiores de Monterrey

07/31/2024 | News release | Distributed by Public on 07/31/2024 17:51

Riesgos de IA en la educación: 4 estrategias de integridad académica

Daniela Gallego Salazar, directora de Gestión Ética del Tec, destaca la importancia de un uso ético y responsable de la IA en la educación
Por Luis Estrada | Redacción Nacional CONECTA - 31/07/2024 Fotos Integridad Académica, Shutterstock, Pexels

Existe actualmente la necesidad de manejar la inteligencia artificial (IA)de manera ética y responsable, señaló Daniela Gallego, directora de Gestión Ética, de la Vicepresidencia de Integridad y Cumplimiento del Tec de Monterrey.

Gallego Salazar externó lo anterior durante su charla "Cómo gestionar el uso de la IA con integridad académica", durante la Reunión Nacional de Profesores.

La especialista del Tec explicó que es importante la integración de la IA en la formación académica, sin comprometer los objetivos de conocimiento y fomentando el desarrollo de habilidades de los alumnos.

"Las herramientas son neutras y los humanos decidimos hacia dónde las vamos a utilizar", mencionó.

Por esta razón, Gallego Salazar compartió a los docentes algunos de los riesgos éticos de la IA desde la perspectiva de la integridad académica, así como las estrategias para su uso responsable.

  • ¿Cuáles son los riesgos éticos de la IA?
  • Riesgos desde la perspectiva de integridad académica
  • Estrategias para gestionar IA con integridad académica
Gallego Salazar insistió en que los humanos deben seguir jugando un papel central en la toma de decisiones y evaluación ética, algo que la IA aún no puede hacer.

¿Cuáles son los riesgos de la IA?

En marzo de 2022, Elon Musk pidió detener la investigación en IA junto a otros líderes tecnológicos a través de una carta. En esta, el empresario dijo que este desarrollo significaba "riesgos profundos para la sociedad y la humanidad", recordó Gallego.

Este documento, promovido por el Future of Life Institute, urge la necesidad de una regulación gubernamental para asegurar que la IA se desarrolle de manera segura y ética.

La líder del Tec también recordó la intervención del papa Francisco durante la reunión del G7, en el que enfatiza que la tecnología debe ser abordada desde una perspectiva de responsabilidad y ética.

"Aunque la tecnología tiene un gran potencial creativo, también puede agravar las desigualdades y fomentar la cultura del descarte", recordó sobre lo dicho el dirigente católico.

Estos son los riesgos que enlistó la directora de Gestión Ética, de la Vicepresidencia de Integridad y Cumplimiento del Tec.

1. Uso de datos personales e institucionales

Las herramientas de IA se alimentan de información para aprender y mejorar. Este proceso incluye la recolección de datos personales como ubicaciones, intereses, trabajos, fotos, gustos musicales, alimentarios y de salud,

2. Propagación de sesgos, prejuicios o estereotipos

La IA, al ser entrenada con datos históricos, puede perpetuar sesgos y prejuicios presentes en esos datos.

Esto puede resultar en la propagación de estereotipos y la discriminación, afectando a grupos marginados y perpetuando desigualdades sociales.

3. Falta de precisión

La falta de precisión en los sistemas de IA puede tener consecuencias graves.

Errores en el reconocimiento facial, diagnósticos médicos incorrectos o decisiones erróneas en sistemas pueden tener impactos negativos, destacando la necesidad de una supervisión rigurosa y constante actualización de estas tecnologías.

Riesgos desde la perspectiva de integridad académica

La especialista del Tec mencionó que la facilidad que brindan estas herramientas para realizar tareas intelectuales, como sintetizar información, detectar ideas principales, crear contenido a partir de un texto o parafrasearlo.

Lo anterior puede eliminar el interés de los estudiantes por realizar el trabajo ellos mismos.

"La inteligencia artificial elimina la utilidad de hacer actividades sin vigilancia, lo que puede comprometer el aprendizaje y la honestidad académica", destacó.

"La inteligencia artificial elimina la utilidad de hacer actividades sin vigilancia, lo que puede comprometer el aprendizaje y la honestidad académica".

Estrategias para gestionar IA con integridad académica

De esta forma, Gallego Salazar insistió en que los humanos deben seguir jugando un papel central en la toma de decisiones y evaluación ética, algo que la IA aún no puede hacer.

Entre las estrategias están:

1. Protección de datos personales e institucionales

  • Generar conciencia: Fomentar el hábito de buscar información sobre el uso que se hace de los datos que se recogen.
  • Protección de datos: Implementar medidas para proteger los datos personales e institucionales.
  • Consentimiento informado: Explicar la importancia de obtener consentimiento escrito cuando se pretende utilizar la imagen o voz de una persona.

"En el ámbito educativo, es crucial proteger la veracidad y fomentar el pensamiento crítico", recalcó.

Mencionó que herramientas como TecGPT están diseñadas para asegurar un manejo responsable de la información.

Sin embargo, Gallego advirtió sobre los riesgos en el sesgo en los datos.

La facilidad con la que los estudiantes pueden usar la IA para tareas desde casa dificulta la verificación de la autoría y puede introducir sesgos en el aprendizaje.

La directora de Gestión Ética subrayó la importancia de que los estudiantes no solo aprendan a usar la tecnología, sino también a desarrollar habilidades de organización y trabajo en equipo.

Recomendó a los profesores establecer lineamientos claros para el uso de la IA en la investigación y la educación. Esto incluye proteger la dignidad humana, asegurar el consentimiento y mantener la veracidad de la información.

"Los estudiantes deben aprender a diferenciar entre emociones y reacciones, y entender la responsabilidad que implica el uso de la IA", dijo.

2. Promoción de la veracidad, equidad y seguridad

  • Reflexión sobre la información veraz: Discutir con los estudiantes el valor de la información veraz para la vida individual y colectiva.
  • Contraste de ideas: Promover el contraste de ideas y puntos de vista divergentes a través de diálogos argumentativos.
  • Distinguir entre objetividad y subjetividad: Enseñar a distinguir entre objetividad científica y subjetividad, así como entre razones y emociones.
  • Hábito de contrastar información: Promover el hábito de contrastar la información y reflexionar sobre la representatividad de los datos generados por la IA.

3. Responsabilidad, explicabilidad y bienestar social- medioambiental

  • Toma de decisiones informadas: Promover el hábito de tomar decisiones informadas y razonables, con conciencia del impacto que pueden tener en otras personas.
  • Evaluación de herramientas de IA: Recomendar qué herramientas de IA utilizar y explicar cuáles desaconsejar, siempre evaluando sus riesgos y beneficios.
  • Explicabilidad de la IA: Explicar que la IA no es un autor, ya que no asume responsabilidades sobre el contenido que produce.

4. Promoción de la integridad académica

  • Evitar la dependencia en la IA: Fomentar el interés de los estudiantes por realizar el trabajo ellos mismos, a pesar de la facilidad que brindan estas herramientas para sintetizar información, detectar ideas principales, crear contenido o parafrasear textos.
  • Valor de las actividades no vigiladas: Recordar la utilidad de hacer actividades sin vigilancia, para mantener el compromiso con el aprendizaje y la honestidad académica.

Gallego Salazar enfatizó que la promoción de competencias y la comunicación clara sobre el uso permitido de la IA son esenciales.

Por ejemplo, herramientas como GPTZero pueden ayudar a detectar textos generados por IA, pero también es importante que los docentes conozcan a los estudiantes y sus estilos de escritura para regular el uso de la IA de manera ética.

Para finalizar Daniela Gallego Salazar, directora de Gestión Ética, de la Vicepresidencia de Integridad y Cumplimiento del Tec invitó a los docentes a conocer y consultar la Guía rápida: lineamientos para el uso ético de inteligencia artificial en la siguiente dirección:

https://tec.mx/es/integridad-academica/inteligencia-artificial

Reunión Nacional de Profesores 2024

La Reunión Nacional de Profesores es el encuentro anual de la comunidad académica de Profesional y Posgrado del Tec de Monterrey con espacios de aprendizaje, alineación institucional, mesas de diálogo y momentos de celebración.

En esta edición, se realizaron conferencias virtuales y el tema central fue la inteligencia artificial para promover el florecimiento humano.

Del 2 al 4 de julio, se brindó a las y los profesores se les motivó a explorar y aprender cómo la inteligencia artificial está configurando un cambio cultural en el que el florecimiento humano debe tener un rol protagonista.

LEE ADEMÁS:

Seleccionar notas relacionadas automáticamente
1
Campus:
Categoría: