Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial (IA) generativa, propagan prejuicios sexistas, advierte un estudio publicado este jueves 7 de marzo de 2024 por la Unesco, en la vĆspera del DĆa Internacional de la Mujer.
Los modelos GPT 2 y GPT 3.5 de OpenAI, este Ćŗltimo incorporado en la versiĆ³n gratuita de ChatGPT, asĆ como Llama 2, de su competidor Meta, ponen de manifiesto Ā«pruebas inequĆvocas de prejuicios contra las mujeresĀ«, indicĆ³ la instancia de la ONU en un comunicado.
Ā«Las discriminaciones del mundo real se reflejan en la esfera digital, y tambiĆ©n se amplificanĀ» en esas aplicaciones, subrayĆ³ Tawfik Jelassi, subdirector general de la Unesco para la comunicaciĆ³n y la informaciĆ³n.Ā
Lea tambiƩn:
- Nuevas funciones en el Chat GPT le permiten āver, oĆr y hablarā gracias a la inteligencia artificial
- āCoyoterosā usan inteligencia artificial para estafar a familiares de migrantes
SegĆŗn el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje, los nombres femeninos se asocian mĆ”s a palabras como Ā«casaĀ», Ā«familiaĀ» o Ā«hijosĀ» y los nombres masculinos, a Ā«comercioĀ», Ā«sueldoĀ» o Ā«carreraĀ».
AdemĆ”s, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orĆgenes y gĆ©neros.
Los resultados mostraron que las historias sobre Ā«personas de culturas minoritarias a menudo eran mĆ”s repetitivas y estaban basadas en estereotiposĀ«.
AsĆ, un hombre inglĆ©s tenĆa mĆ”s posibilidades de ser presentado como un profesor, un conductor o un empleado de banco. Una mujer inglesa, en casi un tercio de los textos generados, aparecĆa como una prostituta, una modelo o una mesera.
Estas empresas Ā«no logran representar a todos sus usuariosĀ«, declarĆ³ a la AFP Leona Verdadero, especialista en polĆticas digitales y de transformaciĆ³n digital en la Unesco.
Ā«Cada dĆa son mĆ”s las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casaĀ», seƱalĆ³ Audrey Azoulay, directora general de la Unesco. Destacando que estas aplicaciones Ā«tienen el poder de moldear sutilmente las percepciones de millones de personasĀ».
Ā«Incluso pequeƱos sesgos de gĆ©nero en su contenido pueden amplificar significativamente las desigualdades en el mundo realĀ», advirtiĆ³ Azoulay.
RegulaciĆ³n y Ć©tica
Para luchar contra estos prejuicios, la Unesco recomienda a las empresas del sector contar con equipos de ingenieros mƔs diversos, sobre todo con mƔs mujeres.
En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, segĆŗn cifras del foro econĆ³mico mundial, recuerda la Unesco.
La instancia de la ONU tambiĆ©n llama a los gobiernos a regular mĆ”s intensamente el sector para poner en marcha una Ā«inteligencia artificial Ć©ticaĀ«. (AFP)
TambiƩn en Teleamazonas:
El uso de inteligencia artificial (IA) es cada vez mĆ”s comĆŗn en Ecuador. Un estudio revelĆ³ el porcentaje de uso de herramientas por trabajadores. Detalles https://t.co/3Xc6RS9Qp7 pic.twitter.com/JcfKZp1noW
— Teleamazonas (@teleamazonasec) January 5, 2024