Las instituciones de la Unión Europea han pactado la primera ley sobre inteligencia artificial (IA) para contar con un marco regulatorio que defina la utilización y las aplicaciones de esta tecnología en función del riesgo que suponga para las personas. Al mismo tiempo, quiere impulsar a la industria europea frente a gigantes como China y Estados Unidos. «Esta ley de la UE constituye un marco legal único para el desarrollo de la inteligencia artificial en el que se puede confiar», afirma la presidenta de la Comisión Europea, Ursula Von der Leyen. El acuerdo, que ahora debe ser ratificado por el Parlamento Europeo y el Consejo de la UE, ha tenido que sortear dos grandes escollos: el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional. Y cumplir con eficacia criterios de transparencia, como especificar si un texto, una canción o una fotografía se han generado a través de IA para garantizar el respeto a los derechos de autor.
Prohibir, no; pero fijar criterios
Las instituciones comunitarias han constatado la necesidad de legislar los modelos y sistemas de IA desde el estallido de ChatGPT el año pasado. El reglamento acordado no prohíbe su uso pero fija unos criterios para detectar los modelos que pueden generar un alto riesgo y obliga a sus desarrolladores a cumplir unos requisitos estrictos antes de sacarlos al mercado.
El copiloto es la IA; el conductor, el hombre
No tiene sentido prohibir el desarrollo de una tecnología clave para el progreso social ni temer su aplicación, con evidentes oportunidades y buenos resultados en numerosos ámbitos. Pero el sentido común aconseja regular y encauzar esta tecnología, distinguiendo entre los riesgos reales y las meras especulaciones. La inteligencia artificial puede ser un buen copiloto, pero quien debe conducir y decidir siempre es la persona humana. Los ciudadanos han de discernir y resolver aquello que se puede hacer con la IA y rechazar sus peligros.