Hoy, Europa está más cerca que nunca de ser la primera región en el mundo en disponer de un marco legal vigente en materia de Inteligencia Artificial (IA). El camino comenzó a forjarse en abril de 2021, cuando la Comisión Europea planteó por primera vez la Ley de Inteligencia Artificial con el objetivo de regular y controlar el uso de esta nueva tecnología en los Estados miembro.
La confirmación vino después, en junio de este mismo año, al aprobarse en el Parlamento Europeo la propuesta de Reglamento (Ley de inteligencia Artificial). Esto implica que, si las negociaciones entre la Comisión y los Estados de la UE prosperan, la propuesta se convertirá en una realidad antes del comienzo del 2026.
Los fundamentos de la nueva Ley de Inteligencia Artificial
Si todo marcha como se espera, Europa sería la primera región a nivel mundial en regular una tecnología que avanza a una velocidad de vértigo y que todo parece indicar que va a cambiar por completo el panorama cultural y económico que hasta ahora conocemos.
En este contexto, lo que se pretende en Europa es garantizar la seguridad, la transparencia, la trazabilidad, la sostenibilidad y la no discriminación de los sistemas de IA que se empleen dentro de sus fronteras. Para conseguirlo, se ha determinado que estos nuevos sistemas estén supervisados por seres humanos, y no por algoritmos automatizados que podrían arrojar resultados dañinos.
Clasificación de los diferentes niveles de riesgo de la IA
La normativa diseñada por la Comisión plantea diferentes niveles de riesgo para clasificar cada una de las soluciones de IA. Así se planteó en un primer momento la siguiente clasificación:
- Riesgo limitado: los sistemas calificados como de riesgo limitado deberán únicamente cumplir unos requisitos de transparencia, de modo que los usuarios puedan decidir con criterio y, si lo desean, dejar de utilizarlos. Aquí se incluirían, por ejemplo, los sistemas que manipulan imágenes, audios o vídeos.
- Riesgo alto: son aquellos sistemas que afectan negativamente a los derechos fundamentales o a la seguridad, como los que pertenecen a los ámbitos de la biometría, la educación o el empleo.
- Riesgo inaceptable: en este caso, se considera que son una amenaza para las personas y deben ser por ello prohibidos. Un ejemplo serían los juguetes que fomentan la manipulación cognitiva de los niños.
La irrupción de ChatGPT lo cambió todo
Con la llegada de ChatGPT se hizo evidente que la propuesta de ley estaba todavía en pañales. De hecho, se han elaborado una serie de enmiendas al borrador que ya se ha aprobado con el objetivo de dar una cabida justa y realista a los sistemas de IA que, como ChatGPT, no encuentran encaje en la propuesta inicial y no deben quedarse sin regulación.
Como solución, se ha planteado la creación de una nueva categoría, la IA generativa, que tendría que someterse a ciertos requisitos específicos:
- Identificar el contenido generado por la IA.
- Diseñar modelos capaces de evitar contenidos ilegales.
- Hacer públicos los datos que se han usado para el entrenamiento y que están protegidos por derechos de autor.
Un futuro aún incierto para la ley de inteligencia artificial
Como es lógico, la propuesta de ley europea ha sido ya examinada por múltiples empresas y desarrolladores, que en buena medida la consideran especialmente restrictiva. Más concretamente, el 51% de los consultados en una reciente encuesta señalan que con la entrada en vigor de la nueva normativa esperan una importante desaceleración en la rentabilidad de sus negocios en un largo plazo.
Ante este contexto de incertidumbre, desde APDTIC estaremos muy atentos al desarrollo de los acontecimientos alrededor de esta legislación tan compleja como necesaria a día de hoy.