La enorme evolución que han experimentado las inteligencias artificiales en los últimos seis meses está haciendo que los gobiernos pisen el acelerador para legislar sobre ellas. Es una necesidad porque hay un principio legal que dice que está permitido todo aquello que no está expresamente prohibido. Por tanto, sin una ley que se aplique a todos los aspectos de las IA hace que muchos de sus conceptos sean legales aunque puedan ser muy dañinos. Por eso el Parlamento Europeo ha pisado el acelerador respecto al borrador de la Ley de Inteligencia Artificial, en desarrollo desde 2021.

El último borrador endurece los controles a las inteligencias artificiales, con algunos añadidos importantes para proteger los derechos de autor de los contenidos que usan las empresas para entrenar a sus IA y crear los grandes modelos de lenguaje (LLM) que luego se usan para dar respuestas a los usuarios. La UE quiere que los desarrolladores de las IA sean responsables de cualquier ilegalidad cometida por ellas, y que así los ciudadanos tengan contra quién querellarse. Si todo marcha bien, será aprobado en la sesión plenaria del 12 al 15 de junio.

Establece el tipo de IA que estarán estrictamente prohibidas, como aquellas que se usen para clasificar personas según sus parámetros biológicos, y orientaciones políticas, sexuales o religiosas, entre otras. Por ejemplo, para crear unidades de «precrimen» en el que una IA pueda predecir qué y cuándo una persona pueda delinquir. Salvo, claro está, que sean creadas por los cuerpos y fuerzas de seguridad de los Estados miembros de la Unión Europea para usarlas previa autorización judicial.

Añaden a las clasificadas de alto riesgo a aquellas IA que se desarrollen con capacidad de dañar a individuos, su entorno o el medioambiente, o que se puedan usar para influenciar a los votantes de procesos electorales por ejemplo en sistemas de recomendaciones de anuncios en plataformas como Facebook o Twitter. Lo cual enlaza con la prohibición de usar las IA para categorizar a los ciudadanos en función de sus creencias, características biológicas, etc.

El nuevo borrador añade medidas de transparencia, como por ejemplo que ChatGPT o Bard tendrán que indicar que el contenido que muestran está generado por IA además de que tendrán que crear salvaguardas para evitar que cree contenido ilegal, y tendrán que publicar resúmenes del contenido protegido por derechos de autor que se ha usado. Aun así, habrá excepciones para el uso de estas IA a nivel académico que se licencien como de código abierto, creándose zonas de pruebas reguladas por parte de las autoridades.

Fuente: Parlamento Europeo.