Algoritmos inteligentes -> Auditoria inteligente

Desde la mitad de la década del 90, la economía digital ha venido evolucionado en etapas: La economía de Internet transformada en la economía de los datos, que a su vez se está transformando en economía algorítmica, en donde la habilidad de usar inteligencia artificial (IA) resulta crítica.

Ahora bien, los beneficios que puede aportar la IA pueden verse afectados por las regulaciones vigentes en materia de protección de datos personales, que cuando fueron pensadas al momento de su redacción no tuvieron en cuenta a IA ni que los datos personales resultan un insumo relevante para actividades de IA. Tan es así que el RGPD (Reglamento General de Protección de Datos) de la UE, incluye algunas limitaciones en pos de la protección de datos que dificultan el desarrollo de la emergente economía algorítmica.

En el caso de Argentina, para poder transitar exitosamente en la economía algorítmica local necesita contar con un escenario regulatorio que sea compatible con IA, pero sin por ello dejar de proteger los derechos de los titulares de los datos. Cualquier modificación a la actual ley 25.326 (Ley de protección de datos personales) deberá afrontar el ya difícil desafío de conservar la consideración de legislación adecuada bajo el RGPD para la transferencia internacional de datos, al cual se le sumará la dificultad adicional de repensar las instituciones clásicas bajo el derecho de protección de datos para que resulte viable en un escenario regido por la IA.  

Entre los cambios que se le exigen al RGPD para una convivencia armoniosa con la IA se incluyen: expansión de los usos autorizado de IA basados en el interés público, flexibilizar el uso de datos para nuevos propósitos cuando involucra un riesgo mínimo, la no penalización de la toma de decisiones automatizadas, permitir explicaciones básicas para las decisiones automatizadas, y fijar las sanciones en forma proporcional al daño que se ocasione.

La opacidad es uno de los riesgos asociados a la IA, resultando en la imposibilidad de explicar como un sistema de IA llega a una conclusión. A veces esta limitación se justifica en que el algoritmo está protegido bajo el velo del secreto de la propiedad intelectual, en tanto que en otros, la razón se halla en la complejidad del proceso en juego que lo hace muy difícil de ser explicado a los humanos. En el supuesto que la IA sea empleada para arribar a decisiones importantes sin explicación alguna, y por ende sin posibilidad de ser revisada, generará que la población al no poder entender cómo se llega a esas decisiones esté inclinada a cuestionarlas en forma sistemática.

Otro de los riesgos que se vincula con la IA es la discriminación por ser la IA muy buena en aprender de los datos. Sin embargo, si dichos datos son sesgados, estos sesgos van a ser reproducidos por la IA, como resultó en la preferencia de selección de hombres para empleos en determinados sectores, la asociación incorrecta de ciertos términos con determinados géneros, comentarios racistas de ciertos BOTs que replicaban conversaciones entre usuarios, problemas de detección de ciertos grupos étnicos por software de reconocimiento facial, etc.

Si bien hay gran preocupación por los incidentes de ciberseguridad que pueden afectar a las organizaciones ¿acaso nos hemos puesto a pensar qué recaudos adoptar en caso que la IA sufra algún tipo de disfunción involuntaria o motivada por un agente externo o interno repercutiendo sobre nuestra organización? ¿Acaso convendría ceñirnos a los mismos parámetros utilizados frente a incidentes de ciberseguridad?

Sin duda estas son situaciones novedosas que no pueden ser gestionadas a través de los remedios habitualmente utilizados para contrarrestar riesgos asociados a la gobernanza de los datos, sino que se deberá recurrir a una nueva dimensión para la gestión de estos riesgos específicos, conocida como análisis algorítmico.

Los profesionales del compliance antes de dejarse seducir por los cantos de sirena que representan las soluciones de IA facilitadoras del cumplimiento de sus roles en las empresas, deberán plantearse la metodología de auditoría para la IA, más frente a la ausencia de parámetros o estándares profesionales generalmente aceptados para llevar dichas tareas. La IA va a venir a controlar muchas de las actividades que se lleven a cabo en las organizaciones, pero ¿quién y cómo van a auditar a los controladores?


 

Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.