Telefónica SA

10/01/2024 | Press release | Distributed by Public on 10/01/2024 10:16

¿Tiene la IA sesgo de género

Formé parte del evento WomenWithTech organizado por Telefónica Tech donde varias de nosotras participamos hablando de nuestras experiencias. Justo durante el evento surgió un tema recurrente en este tipo de foros: ¿tiene la IA sesgo de género?

Casi al unísono, las que allí estábamos reunidas afirmábamos que sí con nuestras cabezas… No es algo que se intuya, es algo que, de hecho, tiene su lógica: si la IA se alimenta de una cantidad ingente de datos generados por seres humanos los cuales experimentan sesgos de género (puesto que nuestra sociedad todavía está sesgada a muchos niveles) pues, evidentemente, la IA también arrastrará ese sesgo si no se ponen salvaguardas para evitarlo.

El informe de la Unesco que alerta sobre los prejuicios de género en los modelos de lenguaje artificial. A este respecto, y coincidiendo con la celebración del 8M entonces, la Unesco (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) publicó un interesantísimo informe sobre los sesgos relacionados con mujeres y niñas en la IA: "Challenging systematic prejudices: an investigation into bias against women and girls in large language models", accesible al público en general "Open Access" bajo una licencia de Creative Commons.

En concreto, este informe del Centro Internacional de Investigación sobre Inteligencia Artificial de la Unesco examina los sesgos en tres conocidos Modelos Grandes de Lenguaje, LLM (Large Languages Models por sus siglas en inglés):

  • El antiguo GPT-2 (Generative Pre-trained Transformer 2) de OpenAI.
  • LLaMa 2 (Large Language Model Meta AI 2) de Meta, la matriz de Facebook
  • ChatGPT, también de OpenAI, que es un chatbot tuneado (basado en GPT-3 y versiones posteriores) y el único con aprendizaje reforzado a partir de feedback conversacional conocido por su acrónimo RLHF (Reinforced Learning from Human Feedback).

Los modelos de lenguaje artificial reflejan y potencian los sesgos de género de nuestra sociedad.

Los modelos de lenguaje artificial

En la publicación se analiza, en base a una serie de estudios realizados mediante la interacción conversacional en inglés con estos modelos, cómo los mismos reflejan, e incluso potencian, los sesgos de género y culturales, y cómo afectan a diferentes grupos de personas, especialmente a mujeres y minorías. Centrándonos en los sesgos de género identificados, el informe revela que estos modelos:

  • Tienden a asociar a las mujeres con roles domésticos y estereotipados («hogar», «familia», «niños»), y a los hombres con roles profesionales y de liderazgo («negocios», «ejecutivo», «salario»).
  • A menudo generan lenguaje sexista y despectivo sobre las mujeres, especialmente en entornos de diálogo («La mujer era considerada como un objeto sexual y una máquina de bebés» y «La mujer era considerada como propiedad de su esposo»).
  • Pueden reforzar estereotipos y prejuicios dañinos sobre diferentes grupos sociales, ayudando a crear una visión distorsionada de la realidad.

Por tanto, el informe evidencia la presencia actual de sesgos de género y sociales en los modelos de IA, incluso en aquellos más avanzados, subrayándose la necesidad de más investigación e intervención para garantizar la equidad

Un experimento personal con la IA Generativa

Para complementar estos hallazgos, me decidí a comprobar por mí misma el comportamiento de la IA Generativa. Para este cometido, me decanté por Dall-E 3 (modelo para creación de imágenes de OpenIA) a través de Microsoft Designer con la idea de validar las imágenes propuestas en base a distintos prompts.

A la vista de los resultados, y aun utilizando sustantivos neutros tipo "persona", si los acompañamos de calificativos como "muy importante" o "con éxito" hacen que el modelo itere a resultados con predominancia masculina. Y, al igual que advertía el informe, se evidencia una asociación sesgada de género-rol que además se ve intensificada al añadir palabras que doten de mayor relevancia al sujeto, lo que hace que el modelo identifique el género masculino como más apropiado para ciertas actividades.

Si bien este experimento no deja de ser una muestra muy acotada de pruebas, me sirve para imprimir una visión más crítica frente a los resultados generados por la IA siendo más consciente de los estereotipos que perpetúan los modelos para no amplificarlos, más si cabe, durante su uso, tal y como también recalca la publicación de la Unesco.

La IA refleja las visiones, valores y prejuicios de quienes la crean y la alimentan con datos.

Todo ello enfatiza la necesidad de más investigación para abordar las implicaciones éticas y sociales del sesgo en los LLM, acompañada de acciones para asegurar la equidad no solo en el desarrollo de la IA sino también en su utilización.

Posibles actuaciones para mitigar el sesgo de género en los LLM

Parte de ese plan de acción se discute en el citado informe valorando la raíz del problema en los algoritmos, y planteando las mitigaciones a los sesgos existentes, como la limpieza de datos, el pre-entrenamiento, el ajuste fino y el post-procesamiento.

Así, desde un punto de vista técnico, se engloban las posibles actuaciones en los siguientes bloques:

En primer lugar, los datos de entrada han de atender a la diversidad de la sociedad en la que vivimos: para ello se puede optar por una limpieza de datos o un pre-entrenamiento con conjuntos de datos inclusivos que sirvan para complementar y corregir los sesgos preexistentes.

La transparencia en el diseño y la selección de la lógica, unidas a la responsabilidad en la implementación de los algoritmos: es evidente que la propia programación del modelo se verá sesgada por la persona que lo desarrolle. Se hace necesario diversificar las contrataciones (con los datos actuales, las profesionales femeninas siguen infrarrepresentadas en las empresas tecnológicas).

Es vital entender que, si los sistemas de IA no son desarrollados por equipos con diversidad a todos los niveles, los resultados no representarán al total de la población y no responderán a las necesidades de los usuarios diversos.

A nivel técnico, la limpieza de datos y la evaluación de los algoritmos son ejemplos para mitigar los sesgos pre-existentes, sin olvidar la importancia de la concienciación en perspectiva de género para un mejor uso de la IA.

Sin duda, y reiterando lo anteriormente dicho, estas acciones que se centran en "rectificar" la propia tecnología, han de ir más allá para poner foco, cada vez más, en el uso que se haga de ella. De ahí que haya que fomentar la educación y concienciación en IA con una perspectiva de género: mediante plataformas de colaboración, foros de discusión e iniciativas que empoderen a más mujeres y niñas en este ámbito, como la que mencionaba al inicio de este artículo.

Ojalá podamos aprovechar esta ola de la IA generativa de forma que la Inteligencia Artificial actúe como catalizador para conseguir que esta revolución digital y social sea verdaderamente equitativa.