febrero 23, 2024

Los políticos de la Unión Europea acordaron el viernes una nueva y amplia ley para regular la inteligencia artificial, uno de los primeros intentos globales del mundo para limitar el uso de una tecnología en rápida evolución que tiene implicaciones sociales y económicas de largo alcance.

La ley, llamada Ley de IA, establece un nuevo punto de referencia global para los países que buscan aprovechar los beneficios potenciales de la tecnología, al tiempo que buscan protegerse de sus posibles riesgos, como la automatización de empleos, la difusión de información errónea en línea y poniendo en peligro la seguridad nacional. La ley todavía tiene que aprobar algunos pasos finales, pero el acuerdo político significa que se han fijado sus directrices.

Los formuladores de políticas europeas se han centrado en los usos más riesgosos de la IA por parte de empresas y gobiernos, incluso para la aplicación de la ley y la operación de servicios cruciales como el agua y la energía. Los creadores de los sistemas de inteligencia artificial de uso general más grandes, como los que impulsan el chatbot ChatGPT, enfrentarán nuevos requisitos de transparencia. Según funcionarios de la UE y proyectos de ley anteriores, los chatbots y el software que crean imágenes manipuladas como los “deepfakes” deberían dejar claro que lo que la gente ve ha sido generado por inteligencia artificial.

El uso de software de reconocimiento facial por parte de la policía y los gobiernos estaría limitado fuera de ciertas exenciones relacionadas con la seguridad y la seguridad nacional. Las empresas que violan las reglas corren el riesgo de recibir multas de hasta el 7% de las ventas globales.

«Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como emisor de normas globales», dijo Thierry Breton, el comisario europeo que ayudó a negociar el tratoleemos en un comunicado de prensa.

Sin embargo, incluso cuando la ley fue aclamada como un avance regulatorio, persistieron dudas sobre su efectividad. No se esperaba que muchos aspectos de la política entraran en vigor hasta dentro de 12 a 24 meses, un período de tiempo considerable para el desarrollo de la IA. Y hasta el último minuto de las negociaciones, los políticos y los países discutieron sobre el lenguaje y cómo equilibrar la promoción de la innovación con la necesidad de salvaguardar contra posibles daños.

El acuerdo alcanzado en Bruselas requirió tres días de negociaciones, incluida una sesión inicial de 22 horas que comenzó el miércoles por la tarde y continuó hasta el jueves. El acuerdo final no fue público de inmediato ya que se esperaba que continuaran las conversaciones entre bastidores para completar los detalles técnicos, lo que podría retrasar el paso final. Votos debe ser mantenido al Parlamento y al Consejo Europeo, del que forman parte representantes de los 27 países de la Unión.

La regulación de la IA se volvió urgente tras el lanzamiento de ChatGPT el año pasado, que fue noticia en todo el mundo al demostrar las capacidades de avance de la IA. En Estados Unidos, la administración Biden emitió recientemente una orden ejecutiva centrada en parte en los efectos de la inteligencia artificial en la seguridad nacional. Gran Bretaña, Japón y otras naciones han adoptado un enfoque más no intervencionista, mientras que China ha impuesto algunas restricciones al uso de datos y algoritmos de recomendación.

Lo que está en juego es billones de dólares en valor estimado ya que se espera que la IA remodele la economía global. “El dominio tecnológico precede al dominio económico y al dominio político”, dijo Jean-Noël Barrot, ministro digital de Francia. Ella dijo esta semana.

Europa ha sido una de las regiones más avanzadas en la regulación de la IA, habiendo comenzado a trabajar en lo que se convertiría en la Ley de IA en 2018. En los últimos años, los líderes de la UE han tratado de lograr un nuevo nivel de supervisión de la tecnología, similar a la regulación sanitaria. sector sanitario o bancario. El bloque ya ha promulgado leyes de gran alcance relacionadas con la privacidad de datos, la competencia y la moderación de contenidos.

En 2021 se publicó un borrador inicial de la ley de IA, pero los políticos se vieron obligados a reescribir la ley con la llegada de los avances tecnológicos. El lanzamiento inicial no mencionó modelos genéricos de IA como los que impulsan ChatGPT.

Los formuladores de políticas acordaron lo que llamaron un “enfoque basado en el riesgo” para regular la IA, en el que un conjunto definido de aplicaciones enfrenta el mayor escrutinio y restricciones. Las empresas que fabrican herramientas de inteligencia artificial que plantean el mayor daño potencial a las personas y a la sociedad, por ejemplo en los sectores de contratación y educación, deberían proporcionar a los reguladores evidencia de evaluaciones de riesgos, análisis de los datos utilizados para entrenar los sistemas y garantías de que el software funcionó. no causar daños como perpetuar prejuicios raciales. También se requeriría supervisión humana en la creación e implementación de sistemas.

Algunas prácticas, como la extracción indiscriminada de imágenes de Internet para crear una base de datos de reconocimiento facial, se prohibirían por completo.

El debate sobre la Unión Europea ha sido polémico, una señal de cómo la inteligencia artificial ha confundido a los legisladores. Los funcionarios de la UE estaban divididos sobre qué tan profundamente regular los nuevos sistemas de inteligencia artificial por temor a obstaculizar a las nuevas empresas europeas que intentan alcanzar a las empresas estadounidenses como Google y OpenAI.

La ley agregó un requisito para que los creadores de los modelos de IA más grandes revelen información sobre cómo funcionan sus sistemas y evalúen el “riesgo sistémico”, dijo Breton.

Las nuevas regulaciones serán monitoreadas de cerca a nivel mundial. Afectarán no sólo a los principales desarrolladores de IA, como Google, Meta, Microsoft y OpenAI, sino también a otras empresas que se espera que utilicen la tecnología en sectores como la educación, la atención sanitaria y la banca. Los gobiernos también están recurriendo cada vez más a la inteligencia artificial en la justicia penal y la asignación de beneficios públicos.

La aplicación sigue sin estar clara. La Ley de IA involucrará a reguladores de 27 países y requerirá la contratación de nuevos expertos en un momento en que los presupuestos gubernamentales son ajustados. Es probable que se presenten desafíos legales a medida que las empresas prueben las nuevas reglas en los tribunales. La legislación anterior de la UE, incluida la histórica ley de privacidad digital conocida como Reglamento General de Protección de Datos, ha sido criticada por su aplicación de manera desigual.

«La capacidad regulatoria de la UE está en duda», dijo Kris Shrishak, un alto miembro del Consejo Irlandés para las Libertades Civiles, que ha estado asesorando a los legisladores europeos sobre la ley de inteligencia artificial. «Sin una aplicación estricta, este acuerdo no tendrá sentido».