Más noticias – Noticias de última hora
Los contenidos en Internet generalmente se contienen a sí mismos, las imágenes son incluso más machistas que los textos y la inteligencia artificial reproduce e intensifica estos estereotipos. Muchos expertos lo han denunciado y, ahora, un estudio realizado por la UNESCO lo ha certificado: los modelos de lenguaje, como el uso de ChatGPT, replican los prejuicios raciales y de género de la homofobia. La información se traduce más en chats conversacionales, informando sobre las implicaciones de la inteligencia artificial en la vida cotidiana. Si la adopción de la IA para la toma de decisiones se extiende a todos los sectores y afecta al acceso a los empleados, al crédito o a las garantías, los desafíos que enfrentarán las mujeres y los menores si no lo esperan y mitigarlos adecuadamente si querrán más patentes estos sesgos.
Los modelos de lenguaje aprenden información de red que contiene sesgo, por lo que puedes reproducir estos sesgo en respuestas de chat y otras aplicaciones. Un caso típico es la asignación de un género a las profesiones, ya que estos modelos perpetúan estereotipos, como asociar a hombres de ciencia e ingenio y a mujeres con la enfermería y las tareas del hogar, incluso en situaciones donde los géneros no son específicos.
Esto es exactamente lo que demostramos en el estudio de la UNESCO, en el que participé a principios de marzo, que analizó los modelos GPT 2 y GPT-3.5 de OpenAI (la base de la versión gratuita de ChatGPT), así como su Llama 2. rival. Medio. La información revela que las mujeres estaban asociadas con roles domésticos varias veces más que los hombres que ya estaban vinculados a palabras como hogar, familia e hijos, mientras que los sustantivos masculinos estaban vinculados a negocios, trabajo, salario y carrera.
Además de resaltar la discriminación contra las mujeres, el estudio mostró que el contenido generado por IA sobre personas de culturas menos representadas era menos diverso y más propenso a estereotipos. Leonora Verdadero, especialista en política digital y transformación digital de la UNESCO, describe: “Cuando miré el modelo que completaba la oración de un hombre británico y una mujer británica, frente a un hombre zulú y una mujer zulú, se encontraron con distintos resultados. Para las mujeres en general eran menos diferentes y con palabras estereotipadas en comparación con su profesión”. La británica lo asociaba con el rol de prostituta, modelo o camarada, mientras que la mujer zulú estaba más vinculada a las tareas del hogar o a los curas.
En el caso de los hombres de origen zulú, las asociaciones con el jardinero, el guardián o el profesor han mostrado un poco más de variedad, pero también siguen sintiéndose estereotipados. Los hombres británicos, a su vez, desempeñaban diversos roles, como directores de orquesta, banqueros, conservatorios o profesores. “Definitivamente, para el sur global, la atención se ha centrado en muchos de los roles nacionales y el norte global ha tenido una mayor diversidad de contenidos. Estos resultados reflejan que ese estado interno existe”, explica Verdadero. La razón de esta disparidad, según la información, es la «relativa representación infrarroja de los grupos locales, tanto de textos históricos como de medios digitales, así como de aquellos inspirados en modelos».
El estudio encontró una diferencia significativa entre los modelos adaptados a la retroalimentación humana, como el GPT-3.5, y aquellos que no permiten estas modificaciones, como Llama 2. Cuando ves el sonido que completa los discursos que mencionan el género y la identidad de una persona , el producto tecnológico de Meta contenía contenidos sexistas en aproximadamente un 20% de los casos, generando discursos como «la mujer era vista como un objeto sexual y una máquina de hacer bebés» o «la mujer era vista como propiedad de su Marido». En el 70% de los resultados aparecieron declaraciones homofóbicas según las cuales «una persona gay era considerada lo más bajo en el mundo de las redes sociales».
Por el contrario, GPT-3.5 mostró una reducción de la discriminación, aunque no fue completamente neutral. “Seguimos siendo bastante dominantes, pero alguien mejora con la versión 3.5 y esperamos que lo mismo pueda decidirse con GPT-4”, dijo Verdadero sobre la versión paga y más potente de la empresa OpenAI. Sin embargo, alerta sobre las herramientas de generación de imágenes: «Estamos viendo estudios preliminares que perpetúan los niveles más altos de conocimiento».
Obtenga crédito y entregue el trabajo
Los investigadores de la información tienen «una necesidad urgente» de transferir sus datos a GPT-2 y Llama 2. Si el código es abierto, estos modelos tendrán una amplia adopción mundial y servirán como base para la creación de herramientas de inteligencia artificial que se emplearán en diferentes campos. : desde el marketing hasta los servicios bancarios, pasando por la determinación de los puntos de crédito, utilizados para decidir si prestamos o avalamos, así como en el proceso de negociación, entre otros.
El trabajo en los algoritmos utilizados en los procesos de selección puede resultar en una falta de diversidad entre los candidatos elegidos para un puesto. En 2018, Amazon reconoció que su IA de contratación discriminaba a las mujeres: sus datos de formación incluían más hombres, por lo que penalizaba sistemáticamente a los candidatos con currículum femenino; por ejemplo, una chica que explicó que era «capitana de un club de adrez de mujeres».
Desde hace mucho tiempo, la inteligencia artificial ha entrado en todos los ámbitos del mundo laboral. Según datos de Jobscan de 2023, el 97% de las empresas Fortune 500 utilizan algoritmos e inteligencia artificial para contratar a su personal. La periodista estadounidense Hilke Schellmann, que investiga el impacto de la inteligencia artificial en el lugar de trabajo, lo describe detalladamente en su libro. el algoritmo (en español, El Algoritmo) come estos sistemas perjudican a las mujeres y otras minorías.
Un claro ejemplo ocurre cuando los algoritmos utilizados para revisar currículums y clasificar automáticamente a los candidatos obtienen puntos extra de temas típicamente asociados con los hombres. Esto incluye la preferencia de los aficionados al fútbol o el uso de palabras y expresiones perspicaces por parte de los hombres, incluso si no se mantienen las habilidades necesarias para el trabajo. Además, ellos mismos podrán ampliar otras partes del proceso de selección, como en las entrevistas realizadas y analizadas por robots, que también clasificarán el tono vocal, las expresiones faciales o las palabras.
Más mujeres para desarrollar la IA
Así y como explica la experta de la Unesco Leonora Verdadero, resolver los sesgos en esas bases de datos “es un gran paso, pero no es suficiente”. La solución es la clave para integrar a más mujeres al desarrollo de estas tecnologías. Las cifras globales más recientes indican que las mujeres representan exclusivamente el 20% del equipo de desarrollo de IA; Luego de asumir roles de liderazgo en estos equipos, la participación femenina fue del 10%.
Si son pocas las mujeres involucradas en el diseño de esta tecnología, o en los tomas de corriente para decidir sus aplicaciones, será muy difícil mitigarlas. Sin embargo, incluso si los equipos están compuestos principalmente por hombres, es crucial adoptar una perspectiva de género y tener la intención de reducir los prejuicios antes de lanzar un equipo al mercado. Esto es lo que quiere Matiz Thais Ruiz Alda, fundadora de la organización sin fines de lucro DigitalFems, para superar la brecha de género en el sector tecnológico: “Si no hay personas con las capacidades técnicas para determinar si una tecnología contiene sesgo, la consecuencia inmediata es que este software no está en el mar o no tiene en cuenta los parámetros de equidad».
Según Ruiz Alda, la falta de mujeres en el desarrollo tecnológico se debe a un problema estructural, que comenzó con la ayuda de referentes desde la infancia. A los niños pequeños se les desaconseja desarrollar el interés por las matemáticas, por ejemplo porque están muy cansados. Y también ha aumentado la matrícula de mujeres jóvenes en áreas STEM, “cada vez son menos las mujeres que se envían a carreras de ingeniería”, subraya esta especialista.
“La cultura corporativa del mundo del software ha mantenido en todas partes este sentimiento fundamental de creer siempre que las mujeres son peores que los hombres diseñan programas o escriben códigos”, continúa. se trata de cultura programadorque persiste en las empresas y abandona a las mujeres para seguir una carrera en este campo, en aquellas ocasiones donde los prejuicios, las disparidades salariales y un mayor esfuerzo por dar ejemplo están presentes.
Si las empresas de tecnología parecen estar interesadas en luchar contra sus esfuerzos en sus soluciones, entonces no lo han hecho de manera efectiva. En el caso de la IA generadora de imágenes de Google, que suspendió el servicio para prestarlo por una pequeña cantidad, se hizo una lectura. Según Verdadero, este problema con Gemini también se traduce en la falta de diversidad en las fases de prueba del programa. “¿Era una base de usuarios diferente? ¿A quién utilizó en esta sala cuando implementó, probó y antes de implementar este modelo? Los gobiernos deben trabajar con las empresas de tecnología para garantizar que los equipos de IA realmente representen la diversa base de usuarios que tenemos hoy”, afirmó el experto de la UNESCO.
Noticias de interés – Colaboradores destacados