LOS ALGORITMOS QUE HACEN APRENDER A LAS MÃQUINAS, ¿TIENEN QUE SER ÉTICOS? ¿QUE PASA SI SUS DECISIONES VULNERAN DERECHOS DE PERSONAS? ¿DE QUIEN SERÃ LA RESPONSABILIDAD LEGAL Y MORAL?
En efecto, tanto administraciones públicas como empresas privadas están utilizando la inteligencia artificial (IA) para mejorar sus procesos, Ayuntamientos como el de Barcelona están aplicando el machine learning para sus procesos de atención al ciudadano y la misma Generalitat de Catalunya está utilizando el algoritmo de prevención del riesgo de reincidencia delincuencial RISCANVI, desde hace algunos años. En el mismo sentido de optimización y digitalización 4.0, numerosas empresas privadas están utilizando el Big Data para sus previsiones de incidencia de riesgo y cálculo actuarial en materia de seguros o de evaluación de solvencia patrimonial o crédito.
En todo caso, lo que hace muy pocos años nos parecÃan asuntos de ciencia ficción, la realidad nos esta llevando a que muchas empresas y administraciones se plantean o ya tengan en explotación algoritmos que hacen aprender a las máquinas (machine learning) y que toman decisiones de forma autónoma en base a la explotación de datos masivos.
Sin duda es un gran avance y es muy posible que el machine learning mejore muchos procesos de atención a las personas, pero esos algoritmos... ¿pueden ser discriminatorios? ¿pueden atentar contra derechos fundamentales?, ¿pueden generar perjuicios por el sesgo de sus decisiones?, en resumen, ¿Quién garantiza la neutralidad ética y legal del aprendizaje de las máquinas y de sus decisiones automatizadas?
La misma Unión Europea, consciente del problema entre otras resoluciones ha dictado la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologÃas conexas (2020/2012(INL).
Si los algoritmos de la IA, trabajan sin control humano y aplicando criterios estrictamente numéricos/económicos, no hay duda que en un futuro breve existirán potentes desajustes sociales y legales, haciendo prácticamente imposible por ejemplo contratar una póliza de asistencia sanitaria a partir de una determinada edad o harán prohibitivo el precio de la póliza del hogar si vives en una isla donde exista un volcán activo (p.e. La Palma), o quizás nos pondrá en la cola de petición de ayudas públicas por no pertenecer a uno de los colectivos de especial protección detectados por la máquina según su sesgo social de aprendizaje automático, e incluso en una mala aplicación de reconocimiento facial, podrÃan vetarnos la entrada en un local de ocio nocturno, al no ajustarse nuestro rostro a las caracterÃsticas étnicas y raciales de los clientes que ha seleccionado la máquina.
Estas posibles injusticias, incluyendo los problemas legales que se puedan derivar, en muchas ocasiones emanan de los sesgos éticos y sociales que haya ido adquiriendo el algoritmo en el proceso de aprendizaje, que, en caso de no ser debidamente corregidos y tutorizados por humanos competentes, se corre el peligro de que afecten tanto a la reputación de la administración pública o la empresa que haya puesto en explotación la IA sin las debidas garantÃas éticas y legales como a los desarrolladores que han comercializado un producto no ajustado a la normativa vigente ni a la ética del cliente. Dichos incumplimientos pueden tener repercusiones reputacionales, pero también severas consecuencias económicas ya sea por reclamaciones directas de los colectivos afectados como por las posibles sanciones administrativas o judiciales que se pudieran derivar de la mala gobernanza del algoritmo.
Pero ¿cómo se evita el sesgo ético negativo o incluso ilegal en el proceso de machine learnig?, no es fácil, pero lo que esta claro es que hoy por hoy se necesita una tutorÃa humana de la máquina, y no basta con una gestión puramente técnica, hará falta un equipo multidisciplinar de expertos que valoren y corrijan el proceso, consiguiendo que el algoritmo final puesto en explotación tenga un sesgo ético-social adecuado y sobre todo que cumpla fielmente con la legalidad vigente en cada momento.
En este sentido, desde ATGROUP proponemos la creación de los COMITÉS ETICOS IA en todas las empresas e instituciones que desarrollen y/o apliquen la IA en su operativa, ya sean meros desarrolladores o usuarios finales de dichos algoritmos.
La doctrina propone como elementos transversales en dichos comités la participación de expertos en ética digital, la inclusión de los representantes de los colectivos afectados, la participación de los representantes de los trabajadores, la participación de expertos externos independientes, la aplicación de polÃticas eficaces de transparencia y comunicación, etc.
Los desarrolladores podrán proponer el COMITÉ ETICO IA, como un valor añadido a sus servicios y aplicaciones, garantizando un resultado conforme a las especificaciones éticas y legales que espera el cliente.
En el caso de organizaciones que explotan ya los algoritmos de la IA, el COMITÉ ETICO IA, es la herramienta de gestión de incidencias y resolución de conflictos, tanto éticos, operativos como legales.
En resumen, el COMITÉ ÉTICO IA tendrá como funciones la gobernanza ética de los algoritmos que se apliquen o desarrollen en la institución. Es evidente que este comité deberá estar estrechamente coordinado con los otros garantes de cumplimiento normativo como son la figura del delegado de Protección de Datos y el Oficial de cumplimiento normativo (Compliance Officer) en su caso.
Si estáis explotando algoritmos de IA o tenéis proyectado escalar del 3.0 al mundo 4.0, no dudéis en contactar con nosotros, donde os asesoraremos gustosamente sobre los requisitos y necesidades a cubrir.