Impacto IA
Auditoría de algoritmos para mejorar el impacto de la inteligencia artificial

La inteligencia artificial debe ser más humana, sobre todo si interviene en decisiones que nos afectan. La auditoría de algoritmos se encarga de ello.
Cada vez nos descansamos más en la inteligencia artificial, aunque no siempre seamos conscientes de ello. Dejamos que sea ella quien nos aconseje qué serie deberíamos ver a continuación. Confiamos en ella para ajustar entrenamientos con los datos de nuestros wearables e incluso para ayudarnos a educar a nuestros hijos. Y, lo que es más importante, empresas y organizaciones públicas la emplean cada vez más para relacionarse con nosotros.
El impacto de la inteligencia artificial en nuestra vida es ya muy importante, pero en los próximos años se multiplicará. Esto plantea una cuestión importante: ¿hasta qué punto un algoritmo nos tratará de manera justa? ¿Hasta qué punto las decisiones basadas en el trabajo de un algoritmo son éticas? Y, sobre todo, ¿quién puede asegurarnos que así sea?
Auditoría de algoritmos para una inteligencia artificial más ética
La auditoría de algoritmos es la manera que ha encontrado la industria para comprobar que el impacto de un algoritmo sobre nuestras vidas será positivo. Para ello, existen empresas que se dedican desarrollar herramientas construidas sobre principios éticos.
En España ya existen algunas auditorías especializadas en esta área e incluso se creará una Agencia Española de Supervisión de Inteligencia Artificial para auditar algoritmos de inteligencia artificial que afecten a sus ciudadanos.
Las auditorías de algoritmos suelen incluir distintas fases. Entre ellas, comprobar el tipo de datos que utiliza un algoritmo, cómo impacta el funcionamiento de ese algoritmo en distintos grupos y cómo interactúan los humanos con el trabajo que entrega el propio algoritmo.
Las auditorías de algoritmos también comprueban que estos se ajustan a la legislación vigente. Además, ayudan a identificar riesgos que plantea su aplicación a las actividades propias de la empresa u organización. Todo un trabajo que debe continuar con la evaluación y medición necesarias para realizar correcciones en caso necesario.
La cuestionable calidad de los datos
Uno de los principales problemas de la inteligencia artificial en la actualidad tiene que ver con la calidad de los datos que procesan los algoritmos. Por esa razón, evaluar esos datos es uno de los principales puntos de una auditoría de algoritmos.
Para Peter Eckersley, cofundador de AI Objetives Institute y miembro del think tank Future Trends Forum, los sesgos de los algoritmos se deben en gran parte a que se nutren, a su vez, de fuentes de información sesgadas.
“Los algoritmos pueden tomar malas decisiones si se basan en datos de mala calidad, si no son capaces de adoptar las variables más importantes de causalidad o de incluir de manera explícita la complejidad de las decisiones que tienen objetivos inciertos o que compiten entre sí”, explica.
El experto añade que algunas de las respuestas más obvias a esas dificultades pueden incluso empeorar el problema. “Por ejemplo, intentar eludir el sesgo algorítmico eliminando datos de categorías protegidas es peor que incluirlos y corregirlos después. Además, elegir un solo tipo de corrección puede ser mucho peor que combinar distintas maneras de medir la justicia de un algoritmo. Sin embargo, muchas organizaciones y empresas no han comprendido todo esto”.
Es en este punto en el cual la auditoría de algoritmos —conducida por profesionales que conocen bien estos riesgos y, por tanto, pueden ayudar a detectarlos y corregirlos— puede resultar especialmente útil.
“Una auditoría ética de algoritmos puede ayudar con todo esto. Sobre todo, si anima a los equipos que construyen y despliegan algoritmos de ayuda a la toma de decisiones a ser conscientes del impacto negativo que puede tener su trabajo. Un impacto que puede abarcar a ciudadanos, clientes y otros sujetos a los que afectan esas decisiones. Estas auditorías también pueden alentar a las instituciones a tener más cuidado al abordar la automatización de este tipo de tareas”, indica Eckersley.
Las consecuencias de los sesgos

Esta última cuestión, la de la automatización de la toma de decisiones, es muy importante en un momento en el que se delega cada vez más esa tarea en la inteligencia artificial.
Para el experto, “las burocracias modernas buscan cada vez más automatizar la toma de decisiones sobre seres humanos o, al menos, hacerlo parcialmente. Esto se extiende en un amplio rango de contextos, desde la admisión en instituciones educativas al acceso a empleos, préstamos, seguros y servicios sociales. Incluso se hace en sentencias judiciales y en las fases previas a juicios. En todos ellos vemos que gobiernos y compañías privadas hacen cada vez más uso de inteligencia artificial y otras herramientas algorítmicas de toma de decisiones”.
Las consecuencias de realizar esta labor sin el control debido ya se dejan ver. Por ejemplo, en vecindarios poblados por minorías en Estados Unidos que pagan más por sus seguros de auto que otros barrios con mayoría de personas blancas, tal y como reflejó el propio Eckersley en el informe Modelos de Negocio Disruptivos de Future Trends Forum.
¿Cómo crear una inteligencia artificial más ética?
Una de las principales preguntas al plantear la construcción de una inteligencia artificial más ética es por dónde empezar a construirla. Un objetivo para el cual Peter Eckersley propone dos niveles de actuación.
“En un nivel más elevado, desde AI Objectives Institute creemos que, si queremos que la inteligencia artificial refleje realmente las prioridades y necesidades humanas, es esencial que los incentivos del mercado hagan lo mismo”, detalla el experto.
Esto supone asegurar que las entidades con fines de lucro tienen los incentivos suficientes para destinar sus recursos a cuestiones como la justicia económica, la igualdad o la generación de beneficios públicos y medioambientales. Esos incentivos también deben alentar la producción de feedback complejo sobre los impactos en sus empleados, consumidores y comunidades. “Si esos incentivos de mercado son buenos, los emprendedores e inversores trabajarán para construir inteligencia artificial que cubra esas necesidades”.
En un nivel más bajo, Eckersley apunta a una gran cantidad de detalles técnicos que es necesario enfocar bien desde el principio y con los que puede ayudar la auditoría de algoritmos. Seleccionar las fuentes y métricas de calidad de datos correctamente, consultar con los grupos afectados adecuados antes de tomar decisiones, elegir medidas múltiples de consecuencias no pretendidas o elegir los objetivos de optimización precisos son algunos de esos detalles que menciona el experto.
Cómo medir bien el impacto social de un algoritmo
Mejorar el impacto social de los algoritmos es uno de los objetivos principales de las auditorías. Para ello, no basta con establecer métricas que nos ayuden a identificarlo. Según Peter Eckersley, también deben facilitar a las personas afectadas por el algoritmo proporcionar información sobre su convivencia con él.
“Los algoritmos con un impacto potencial mayor deberían tener equipos dedicados a estudiar esa información y realizar ajustes en cuanto parezca que algo va mal”, asegura.
Por lo demás, el experto aboga por medir el impacto de los algoritmos de distintas maneras, en una estrategia que incluya medidas primarias sobre impactos deseados y otras secundarias sobre consecuencias no intencionadas. El objetivo consiste en no dejar nada al azar. Algo imprescindible si de lo que se trata es de lograr que la inteligencia artificial sea lo más humana posible.