¿Puede una máquina ser moral?

Si tuviéramos un auto de conducción autónoma (sin conductor) el mismo podría encontrarse con situaciones imprevistas que lo obliguen a tomar una decisión extrema, que en el mundo de los humanos podemos catalogar como dilemas éticos. Por ejemplo, si seguir en el carril y atropellar a tres personas, o bien cruzar de carril y provocar daños en los dos pasajeros del auto. Un grupo de especialistas en el MIT hace años vienen realizando el experimento Moral Machine para estudiar qué harían las personas ante distintos escenarios de situaciones críticas (se puede participar en https://www.moralmachine.net/, ya lo hicieron 40 millones de personas de 233 países). 

Los resultados difieren en las distintas agrupaciones que optemos: edad, sexo, nacionalidad, etc. Esto nos lleva a una cuestión de base: es única la moral? ¿Por qué un grupo de hombres de determinado país pueden tomar decisiones diferentes a un grupo similar de mujeres de otra parte del planeta? ¿Cuál de los dos grupos se comporta de manera moral?. Si ingresamos en la página y completamos el ejercicio podemos ver lo cerca o lejos que uno se encuentra del promedio (y genera la pregunta de quién tiene mayor concepto moral: yo o el resto?; en el caso del que esto escribe, oriundo del margen occidental del Río de la Plata, la respuesta es obvia).

Como doctrina filosófica la moral está pensada para las personas, no para las cosas. Pero tal vez los filósofos griegos no pensaron que alguna cosa iba a tener el nivel de interacción con los humanos que estimamos con la IA. ¿Y si deben tener una moral, cuál es?,;¿la del promedio?; ¿la mía?.

El experimento de Moral Machine da una muy buena base para plantear con información concreta estas dudas, pero carece de un componente más: el tiempo. Las opiniones de las personas van a cambiar con el paso del tiempo. Ya sean nuevos individuos o los mismos pero con otro bagaje de experiencias pueden presentar variantes en los resultados.

Una de las cosas que pueden desprenderse es la necesidad de tener claramente explicitados los criterios utilizados en la elaboración de los algoritmos, su revisión y ajuste permanente, y una auditoría rigurosa que verifique que los resultados acompañen lo fijado.

Y anterior a los objetivos propios del algoritmo, es la gobernanza. Los códigos de ética corporativos deberán empezar a contemplar un capítulo sobre estas temáticas.

Por último, el trabajar en una metodología clara y precisa de monitoreo es una necesidad para las actividades de control y gobernanza de las organizaciones. La auditoría de algoritmos es una respuesta.Y es necesario además que esta sea interdisciplinaria, son muchos los aspectos que deben ser considerados y no los engloba ninguna especialización.

Desde Crearis Latam podemos ayudarte en estas soluciones.

Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.