La Unesco alerta que la IA generativa propaga prejuicios sexistas

Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial (IA) generativa, propagan prejuicios sexistas, advierte un estudio publicado este jueves 7 de marzo de 2024 por la Unesco, en la vĆ­spera del DĆ­a Internacional de la Mujer.

Los modelos GPT 2 y GPT 3.5 de OpenAI, este Ćŗltimo incorporado en la versiĆ³n gratuita de ChatGPT, asĆ­ como Llama 2, de su competidor Meta, ponen de manifiesto Ā«pruebas inequĆ­vocas de prejuicios contra las mujeresĀ«, indicĆ³ la instancia de la ONU en un comunicado.

Ā«Las discriminaciones del mundo real se reflejan en la esfera digital, y tambiĆ©n se amplificanĀ» en esas aplicaciones, subrayĆ³ Tawfik Jelassi, subdirector general de la Unesco para la comunicaciĆ³n y la informaciĆ³n.Ā 

Lea tambiƩn:

SegĆŗn el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian mĆ”s a palabras como Ā«casaĀ», Ā«familiaĀ» o Ā«hijosĀ» y los nombres masculinos, a Ā«comercioĀ», Ā«sueldoĀ» o Ā«carreraĀ».

AdemƔs, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orƭgenes y gƩneros.

Los resultados mostraron que las historias sobre Ā«personas de culturas minoritarias a menudo eran mĆ”s repetitivas y estaban basadas en estereotiposĀ«.

Asƭ, un hombre inglƩs tenƭa mƔs posibilidades de ser presentado como un profesor, un conductor o un empleado de banco. Una mujer inglesa, en casi un tercio de los textos generados, aparecƭa como una prostituta, una modelo o una mesera.

Estas empresas Ā«no logran representar a todos sus usuariosĀ«, declarĆ³ a la AFP Leona Verdadero, especialista en polĆ­ticas digitales y de transformaciĆ³n digital en la Unesco.

Ā«Cada dĆ­a son mĆ”s las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casaĀ», seƱalĆ³ Audrey Azoulay, directora general de la Unesco. Destacando que estas aplicaciones Ā«tienen el poder de moldear sutilmente las percepciones de millones de personasĀ».

Ā«Incluso pequeƱos sesgos de gĆ©nero en su contenido pueden amplificar significativamente las desigualdades en el mundo realĀ», advirtiĆ³ Azoulay.

RegulaciĆ³n y Ć©tica

Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros mƔs diversos, sobre todo con mƔs mujeres.

En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, segĆŗn cifras del foro econĆ³mico mundial, recuerda la Unesco.

La instancia de la ONU tambiĆ©n llama a los gobiernos a regular mĆ”s intensamente el sector para poner en marcha una Ā«inteligencia artificial Ć©ticaĀ«. (AFP)

TambiƩn en Teleamazonas: