La Unión Europea acuerda lineamientos sobre Reglamento de Inteligencia Aritficial con vigencia a partir de 2026

Finalmente la Unión Europea ha logrado un acuerdo político respecto al alcance de la regulación sobre inteligencia artificial cuya letra final verá la luz estimadamente en mayo del año venidero y por ende estimándose la vigencia plena de esta norma a partir del 2026.

 
Su importancia radica en que se trata de la primera regulación integral de la inteligencia artificial en el mundo aún cuando exista en China regulación específica de la IA generativa y que algunas de sus disposiciones tendrán efectos aún fuera del mercado europeo.

En la disputa con EEUU por liderar el desarrollo de la inteligencia artificial resultará trascendente evaluar el impacto que está regulación pueda llegar a tener sobre la innovación de esta industria en la Unión Europa en comparación con otros lugares como Sillicon Valley o el Reino Unido, donde las investigaciones y desarrollos en IA están más avanzadas, ante los altos costos que puede implicar estar compliance para las pequeñas empresas entrantes al negocio en la UE.  

Asimismo, si se repite lo ocurrido con el Reglamento General de Protección de Datos o GDPR, el reglamento de IA puede convertirse en un estandar mundial en la materia que puede ser replicado en muchas de sus provisiones por otras jurisdicciones fuera del continente.  

En las negociaciones llevadas en estos días el Consejo (bajo la presidencia de España) ha buscado relativizar el criterio más estricto del Parlamento respecto a las actividades prohibidas propuestas por la Comisión Europea. 

En tal sentido solo se permitirán sistemas de identificación biométrica en espacios públicos a los fines de cumplimiento de leyes, con autorización judicial previa y para acotada lista de delitos (terrorismo, tráfico y explotación sexual, secuestro, homicidio, violación, delitos ambientales, asalto con armas). Otra de las actividades prohibidas a ser llevadas a cabo con sistemas de IA son, entre otras, el scrapping en Internet de imágenes faciales para realizar bases de datos para reconocimiento facial, sistemas de reconocimientos de emociones en ámbitos educativos o laborales, sistemas que manipulen la conducta humana para afectar su libre voluntad. 

Las nuevas restricciones incorporadas para los modelos fundacionales exceptúan a los modelos de códigos abiertos (aquellos desarrollados utilizando códigos que están disponibles libremente para los desarrolladores para sus propios productos).

Los sistemas se clasifican en virtud del riesgo que pueden implicar para la salud, seguridad y derechos humanos con el consecuente mayor grado de obligaciones que le resultan aplicables. Para los sistemas considerados como de alto riesgo resultará mandatoria, entre otras obligaciones, una evaluación de impacto sobre derechos humanos (FRIA Fundamental Rights Impact Assignment).  Por su parte los sistemas de IA para usos generales deberán cumplir con recaudos de transparencia (datos utilizados para entrenamiento, aspectos de propiedad intelectual, etc) resultando los requerimientos más exigentes cuando se trate de IA con propósitos genéricos con riesgos sistémicos (evaluaciones de modelos, evaluación y mitigación de riesgos sistémicos, realizar testeos adversariales, informar cuestiones de ciberseguridad y gestión de energía, etc). 

Las multas por violaciones a la norma pueden llegar hasta el 7% de la facturación global teniendo en cuenta el tipo de violación cometida y el tamaño de la empresa infractora.

Desde Crearis Latam estaremos atentos a los avances que presenten los detalles de este reglamento y el impacto que pueda llegar a tener sobre los negocios de IA en la región.

Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.