El Parlamento Europeo abre la vía a la regulación de la inteligencia artificial
La plenaria del Parlamento Europeo pretende votar este miércoles el inicio de las conversaciones para aprobar la primera normativa a nivel global sobre sistemas de inteligencia artificial, para poner freno a los potenciales daños sin bloquear la innovación.
Los planes originales de la Unión Europea (UE) para regular el uso de la inteligencia artificial (IA) se remontan a 2021, pero el asunto se volvió urgente después que ChatGPT irrumpió en escena, poniendo de relieve el vertiginoso desarrollo del sector.
Una vez que reciba la luz verde del Parlamento Europeo, funcionarios de la UE apuntan que se iniciarán de inmediato las negociaciones directas con los 27 países del bloque, con la idea de tener un acuerdo sellado para finales de año.
Aún si se alcanza ese objetivo, la normativa no entraría en vigor hasta 2026, y por ello la UE precisará negociar también un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.
La mayoría de los eurodiputados apoya el proyecto de normativa como un hito.
"¿Es éste el momento adecuado para que Europa regule la IA? Mi respuesta es rotundamente sí: es el momento adecuado debido al profundo impacto que tiene la IA", dijo el eurodiputado Dragos Tudorache durante el debate parlamentario del martes en Estrasburgo.
"Lo que podemos hacer aquí es crear confianza y seguridad jurídica para permitir que la IA se desarrolle de manera positiva", dijo la vicepresidenta de la Comisión Europea, Margrethe Vestager.
La ley en discusión regulará la IA según el nivel de riesgo: cuanto mayor sea el riesgo para los derechos o la salud de las personas, por ejemplo, mayores serán las obligaciones de los sistemas.
La lista de alto riesgo propuesta por la UE incluye la IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración.
- Protección de derechos -
El Parlamento Europeo, por su parte, ha agregado condiciones adicionales antes de que se cumpla la clasificación de alto riesgo, incluida la posibilidad de dañar la salud, la seguridad, los derechos fundamentales o el medio ambiente.
También existen requisitos especiales para los sistemas de IA generativa, como ChatGPT y DALL-E, capaces de producir texto, imágenes, código, audio y otros medios, e incluyen la obligación de informar a los usuarios que una máquina, no un ser humano, produjo el contenido.
Uno de los legisladores que impulsó la iniciativa, Brando Benifei, pidió un "enfoque común" para abordar los riesgos de la IA. "Necesitamos comparar notas con legisladores de todo el mundo", dijo.
Tudorache, a su vez, agregó que la ley es necesaria "porque esperar que las empresas se autorregulen no es suficiente para salvaguardar a nuestros ciudadanos".
Además, los legisladores proponen la prohibición de los sistemas de IA de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva.
La difusión en imágenes falsas en redes sociales, creadas a partir de aplicaciones basadas en IA, como Midjourney, ha alertado sobre los riesgos de manipulación de la opinión pública y los peligros para la democracia.
Por esa razón, científicos europeos han pedido una moratoria en el desarrollo de los sistemas más potentes, hasta que estén mejor regulados por ley.
R.Decker--LiLuX