Marco ético para la IA

Marco Ético

Los posibles usos ilícitos de la inteligencia artificial han hecho florecer innumerables iniciativas, declaraciones, manifiestos, principios, guías, análisis, etc. enfocados tanto en observar, medir y ponderar los efectos de estos sistemas en las personas como en el desarrollo preventivo de una IA ética.

Numerosas instituciones, gobiernos, compañías de tecnología y consultoras, think tanks y todo tipo de organizaciones están trabajando en el marco ético de la IA. Gigantes tecnológicos como Google o Facebook han creado sus códigos éticos. Microsoft ha creado el Instituto de Investigación AI Now “para garantizar que los sistemas de IA sean sensibles y respondan a los complejos dominios sociales en los que se aplican”. 

A mayor escala, la Comisión Europea tiene varias iniciativas relacionadas con crear directrices éticas para una IA fiable, ética y robusta. En abril de 2019 ha publicado una Guia ética para una IA fiable basada en lo derechos fundamentales para identificar los principios éticos que deben respetarse en el desarrollo, despliegue y utilización de los sistema de IA. Entre ellos destacan:

- respeto de la autonomía humana, 

- prevención del daño, 

- equidad y explicabilidad, 

- atención especial a las situaciones que afecten a los grupos más vulnerables,

- atención a las situaciones caracterizadas por asimetrías de poder o de información, 

- reconocer posibles riesgos y adoptar medidas adecuadas para mitigarlos.

Los expertos del Future Trends Forum señalan que, si bien este tipo de documentos y códigos éticos pueden servir de orientación inicial, llevarlos a la práctica en cada caso específico puede resultar complicado y a veces es excusa para su no implementación. Además, destacaron que vivimos en una era de desarrollo tecnológico acelerado donde, por primera vez, tenemos que contemplar las consecuencias éticas de este desarrollo, por lo que, en cierta forma, los grandes desarrolladores de IA trabajan en lo que se llama el “Ethics-wasing”, un intento de lavado de cara de las posibles consecuencias éticas del desarrollo desmesurado de esta tecnología. 

 


Para nuestro experto David Weinberg, lo más interesante es que el desarrollo de la inteligencia artificial puede estar cambiando algunas de nuestras ideas sobre el desarrollo de la tecnología y sobre los sectores en los que esta tecnología tiene impacto. Existe consenso en que todos queremos que la IA y las directrices que damos a las máquinas sean imparciales y regidos por valores, y se está trabajando para ello. 

Nuestros expertos destacan 5 consideraciones esenciales para un desarrollo ético de la IA:

1. Afrontar los sesgos; “el pecado original de la IA”, dado que esta aprende de los datos y que esos datos reflejan nuestros sesgos existentes, se debe trabajar en encontrar formas de identificarlos y minimizarlos. Pero es probable que, aun así, este riesgo siga presente en un grado u otro, siempre y cuando la sociedad humana esté sesgada.

2. Las personas en el centro, las personas afectadas por la tecnología deben participar en el desarrollo de las mismas.

3. Considerar los efectos secundarios y terciarios de estos sistemas. Aunque los sistemas estén desarrollados en concordancia con los valores éticos, pueden surgir efectos negativos para la comunidad. Por ejemplo, el sistema podría tener éxito en la tarea de hacer que las rutas de los autobuses sean más eficientes, pero eso podría hacer que evitase el extrarradio o las zonas más marginales durante las horas punta.

4. TransparenciaNo podemos asumir que la transparencia resolverá todos los problemas éticos de la IA, y en caso para que lo sea debemos ser específicos en qué parte del desarrollo debe ser transparente: el acceso a los datos, las personas involucradas en el proceso, el rendimiento del sistema, los resultados….

5. Debate público. En opinión de nuestro experto David Weinberg, la elección de los resultados deseados en relación con muchos sistemas de IA debería estar sujeta a debate, decisión y supervisión pública. 

Potenciales soluciones: