Derechos digitales y IA

Derechos digitales

En el marco de la conversación sobre el impacto ético de la IA y de la tecnología en general han emergido numerosas iniciativas que reclaman la consideración de los derechos digitales como una extensión de los derechos humanos.

Ese es el objetivo de la conferencia RightsCon que organiza cada año -desde 2011- la organización AccessNow. También lo es el de la Declaración de la Coalición de Ciudades por los Derechos Digitales, que en su tercer punto, dedicado a “transparencia, responsabilidad y no discriminación de datos”, hace alusión al derecho de cualquier persona a acceder a información comprensible y precisa sobre los sistemas de inteligencia tecnológica, algorítmica y artificial que tienen impacto en su vida, y a la capacidad de cuestionar y cambiar sistemas injustos, sesgados o discriminatorios.

Más allá va el Ranking de Derechos Digitales (RDR) que, entre otras cosas, realiza un Índice de Responsabilidad Corporativa para poner de manifiesto compromisos, políticas y prácticas empresariales que afectan la libertad de expresión y la privacidad de los usuarios. El 2019 RDR Corporate Accountability Index ha evaluado a 24 compañías en base a 35 indicadores que examinan diferentes aspectos de su gobierno, políticas y prácticas. Su medidor relativo al impacto adverso potencial de sus operaciones comerciales en los derechos humanos de los usuarios se ha ampliado este año para abordar los esfuerzos de diligencia debida de las compañías con respecto al uso de herramientas automatizadas para la toma de decisiones (basadas en IA) y a sus políticas y prácticas publicitarias específicas.

Según el informe, solo tres empresas, -Deutsche Telekom, Microsoft y Telefónica- revelaron estar evaluando los riesgos de derechos humanos asociados al uso de IA. Telefónica fue la única que mostró que dicha evaluación es parte de su proceso formal y continuo de estimación de impacto en los derechos humanos. Esta compañía está por delante del resto en el Índice RDR con respecto al resto de compañías de telecomunicaciones, dado que -dice el documento- reveló significativamente más que sus pares sobre políticas que afectan la libertad de expresión y la privacidad. También hizo más mejoras que todas las demás empresas en el índice “por un amplio margen”.

En base a los resultados obtenidos, el Índice RDR recomienda a las empresas:

- realizar evaluaciones de impacto sobre los derechos humanos;

- fortalecer la supervisión directa sobre los riesgos relacionados con la seguridad, la privacidad y la libertad de expresión del usuario; 

- comprometerse con la evaluación de terceros basada en estándares internacionales de derechos humanos; 

- establecer mecanismos efectivos y accesibles de reclamación y solución 

- implicarse con las partes interesadas afectadas para crear nuevos procesos para identificar riesgos y mitigar daños.

Durante la reunión del Future Trends Forum se debatió sobre cual sería el papel del gobierno en la definición y control de los derechos digitales, ya que el reto de la gobernanza de la IA es un problema que se resolverá combinando muchos aspectos distintos como:

- hacer analogía con otras tecnologías ya que la IA no es la primera tecnología que se ha politizado o se ha vuelto estratégica para el desarrollo humano, debemos fijarnos en cómo se resolvieron estos aspectos en otras tecnologías como la nuclear, la biotecnología, etc.

- reforzar el impacto de las instituciones en las que más confían las personas y apoyar el desarrollo de los derechos digitales en sus actividades. En ocasiones el desarrollo de las las grandes empresas tecnológicas avanza más rápido de la legislación gubernamental, lo que crea problemas. Por si la IA se desarrolla en el sector privado, ahí es donde debemos encontrar a los responsables que hagan la inteligenciar artificial más segura, resistente y transparente. 

 

El sector público debe ejercer control sobre esta actividad. Un ejemplo es el Índice RDR que considera que los gobiernos no sólo deben protegerlos, sino que tienen un papel relevante que desempeñar para garantizar que las empresas ejerzan una gestión y supervisión adecuadas de los riesgos sobre estos que puedan causar. Sus recomendaciones generales, entre otras, son: 

- una ley de protección de datos sólida para proteger la privacidad [como el RGPD en el caso europeo], 

- implementar y exigir transparencia, 

- asegurar el acceso adecuado mecanismos accesibles y efectivos de reclamación y recursos.

Potenciales soluciones: