Entrevista Javier Camacho, experto en Gestión de Etica de las organizaciones: “El uso de la inteligencia artificial en las empresas debe seguir las pautas de buen gobierno de cada entidad”.
Este experto Profesor asociado de ICADE e investigador de ética empresarial, gobierno corporativo y responsabilidad social corporativa, ahondo en su webinar impartido en el IECOM sobre la gestión ética de las organizaciones y el papel de la inteligencia artificial en este escenario.
Para Camacho, “La Union Europea quiere posicionarse como un referente en el uso responsable de la Inteligencia Artificial. Es muy interesante que den un paso más que una propuesta de principios para abordar esta cuestión regulatoria en un tema clave”.
Desde su punto de vista “la preocupación por una IA justa, responsable y transparente es solo la punta del iceberg. Los procesos de gestión y gobernanza de la empresa, la cultura corporativa, la fijación de objetivos, la formación y por supuesto también, el sistema de cumplimiento e integridad, son más relevantes”.
También considera que “ la empresa que disponga de una cultura ética proactiva, con un programa de ética, cumplimiento e integridad “vivo” y efectivo, no va a tener ningún problema al enfrentar los nuevos retos de la IA”.
¿Cómo un experto como usted en gestión de ética de las organizaciones ve el debate que se está generando sobre el uso de la Inteligencia Artificial (IA)?
Desde mi punto de vista, el debate es necesario, como ocurre con muchos de los avances tecnológicos.
Sin embargo, se puede dar la situación que el debate tenga sesgos por cuestiones más de moda o con mucho más “hype”, y se aleje de la realidad en las que las organizaciones están utilizando los sistemas y aplicaciones de IA hoy en día.
Mi reflexión es que tal vez los problemas reales a los que se enfrentan las organizaciones no sean exactamente los que reciben más atención mediática.
En ese debate. ¿Cómo valora la propuesta de la UE para regular la IA desde un marco jurídico ético para velar por una inteligencia artificial digna de confianza?
La UE está buscando posicionarse como un referente en el uso responsable de la IA. Desde este punto de vista, me parece muy interesante el dar un paso más allá de una propuesta de principios, para intentar abordar la cuestión regulatoria en un tema tan complejo y necesario.
Claro que las empresas deben impulsar una cierta autorregulación, pero también los organismos públicos deben trazar e impulsar estas iniciativas. El enfoque de la propuesta de la UE, basado en establecer diferentes niveles de riesgo para diferentes aplicaciones, me parece un buen punto de partida.
¿Cómo cree que se puede implementar la futura Estrategia Nacional de Inteligencia Artificial (ENIA) que busca situar a nuestro país en la línea de los países líderes en la investigación y el uso de una Inteligencia Artificial?
Hay un dicho anglosajón que dice “put your money where your mouth is”, que en este sentido puede aplicarse de manera literal. Cualquier posicionamiento requiere una estrategia, inversión y objetivos a cumplir.
La propuesta debe trasladarse en acciones y programas específicos. Este campo es también una excelente oportunidad para iniciativas público-privadas y para la colaboración Universidad-empresa.
¿Qué deben hacer las empresas para hacer un uso de la IA en su organización de forma justa, responsable y transparente?
Bajo mi punto de vista, la preocupación por una IA justa, responsable y transparente es solo la punta del iceberg. Los procesos de gestión y gobernanza de la empresa, la cultura corporativa, la fijación de objetivos, la formación y por supuesto también, el sistema de cumplimiento e integridad, son más relevantes.
Si todos estos elementos toman en consideración los criterios de responsabilidad, justicia y transparencia, es muy probable que el uso de la IA en la organización también tenga esas características.
¿Cuáles son los desafíos éticos que plantea la inteligencia artificial para las empresas y organizaciones más destacados?
Cada nueva tecnología o desarrollo supone unos nuevos retos éticos para las organizaciones.
En el caso de la IA hay que tener especial atención en el riesgo e impacto en el negocio y en terceros, ya que la escalabilidad de estas aplicaciones hace que los impactos puedan ser mucho mayores y afectar a muchas más personas.
En todo caso, soy un firme convencido de que la empresa que disponga de una cultura ética proactiva, con un programa de ética, cumplimiento e integridad “vivo” y efectivo, no va a tener ningún problema al enfrentar los nuevos retos de la IA.
En este contexto se habla del algoritmo y de su uso y de los sesgos que pueden tener implícitos. ¿Hay alguna forma de reducir ese tipo de sesgos realmente?
Por supuesto. Podemos identificar tres acciones muy claras: 1) Identificar los posibles sesgos, 2) Valorar sus impactos y 3) Desarrollar una estrategia de mitigación o gestión, entendiendo claramente el caso de uso y las implicaciones para el modelo y para el negocio.
Existen una serie de herramientas que posibilitan la detección de sesgos, pero de nuevo, lo más importante es la gestión de los procesos en la organización.
Otra cuestión de la que se habla mucho es del reconocimiento facial, aunque entidades como la AEPD española lo señala muy invasivo. ¿Se puede lograr un uso razonable del reconocimiento facial que respete al individuo?
Este es un tema apasionante. Realmente el reconocimiento facial es una alternativa en el campo de la biometría, como lo son las huellas dactilares, el iris o la voz. La cuestión es que en el caso de las huellas o del iris, por ejemplo, el usuario da un “consentimiento” implícito al acercar el dedo o el ojo, y el sistema no puede funcionar si el usuario no consiente en esa “proximidad” (y además previamente ha registrado su “huella”).
El caso del reconocimiento facial es muy ventajoso, pero tiene el riesgo de que pueda ser utilizado “a distancia”, sin que el usuario haya dado ese consentimiento o sin que ni siquiera sepa que se está usando. Es uno de los ejemplos donde la organización o la regulación deben proveer mecanismos que garanticen al usuario su derecho a la privacidad y al consentimiento informado.
¿Cuál es el papel del Compliance Officer de cara a la implantación de la IA en las empresas y que sea realmente una tecnología eficiente que ayude a minimizar riesgos de las organizaciones?
Como he comentado antes, creo que es mucho más importante a la hora de implantar sistemas de IA en las empresas, la parte “sumergida” del iceberg: sistemas de gestión, gobernanza, formación, procesos, indicadores, análisis de riesgos y cultura de la empresa.
Es precisamente en esas áreas donde la labor del Compliance Officer puede aportar más, de modo que el uso de aplicaciones de IA sería algo similar a añadir una nueva regulación (como ocurrió con el caso del RGPD), o una nueva línea de negocio. Es más importante toda la gestión de los procesos que rodean a la IA, que la IA en sí.