La norma será pionera y establecerá el primer marco jurídico integral para la IA, con un planteamiento basado en sus riesgos. Se creará una Oficina Europea de Inteligencia Artificial y la infracción de las normas se penalizará con multas millonarias. Se podrá prohibir el uso de sistemas de categorización biométrica.

Foto: Sputnik Mundo

La futura ley convertirá a la UE en la primera región del mundo donde los usos de la inteligencia artificial (IA) quedarán regulados. El acuerdo entre el Europarlamento y el Consejo de Europa es todavía provisional y tendrá que ser ratificado, pero se estima que el texto final entre en vigor a finales de 2026, si bien algunos puntos podrán hacerlo antes.

La Comisión Europea y el Parlamento Europeo anunciaron el compromiso legal, del que el equipo de la Presidencia española del Consejo de Europa afirmó que podrá «garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE».

España, a través de su Ministerio de Transformación Digital, se había fijado como objetivo prioritario cerrar tal acuerdo durante su semestre en la presidencia rotatoria europea. De tal forma, el pacto del 8 de diciembre, que llevaba discutiéndose a propuesta de la Comisión Europea queda suscrito antes de la celebración de las elecciones al Parlamento Europeo de junio de 2024.

Riesgos detectados

La futura ley definirá las normas de una tecnología que está irrumpiendo en la vida diaria de las personas y que entraña a la par ventajas y riesgos. Y es en función de los riesgos que la Comisión clasifica a la IA en cuatro niveles:

Riesgo mínimo: son la gran mayoría, desde los sistemas de recomendación hasta los filtros de correo no deseado, y no atentan contra los derechos o la seguridad de los ciudadanos. «Disfrutarán de libertad y ninguna obligación».

Alto riesgo: es la IA asociada a las infraestructuras críticas, como los ámbitos del agua, gas, electricidad, productos sanitarios, policía, administración de justicia e incluso de calidad democrática. «Deberán cumplir requisitos estrictos» e incluir sistemas de mitigación de riesgos, un registro de actividad, supervisión y un alto grado de ciberseguridad.

Riesgo inadmisible: se prohibirán los sistemas de IA que se consideren «una clara amenaza para los derechos fundamentales de las personas». Aquí se incluyen las aplicaciones que «manipulen el comportamiento humano para eludir la voluntad de los usuarios» y sistemas que en manos de Gobiernos y empresas permitan la «puntuación social». También se prohibirán algunos usos de los sistemas biométricos, como el reconocimiento de emociones en el lugar de trabajo, y casi toda la identificación remota en tiempo real en lugares públicos con fines policiales.

Riesgo específico de transparencia: para el caso de los robots conversacionales (chatbots), «los usuarios deben ser conscientes de que están interactuando con una máquina». Asimismo, las ultrafalsificaciones y otros contenidos generados por la inteligencia artificial «deberán etiquetarse como tales».

Fuente: Sputnik Mundo