Factores universales en la confianza

2. Factores universales en la confianza

Existen tres grandes factores que afectan directamente a las bases de la confianza:

   - La desinformación: la toma de decisiones se vuelve mucho más compleja si no podemos confiar en la veracidad de la información con la que contamos para ese proceso.

   - Las Administraciones Públicas: si confiamos en nuestras instituciones, esto repercutirá positivamente en nuestra confianza a futuro en el ámbito económico y social, pudiendo tomar decisiones acordes a esa confianza.

   - Las nuevas tecnologías: confiar en ellas nos facilita las transacciones online, las comunicaciones y, en general, en su capacidad para hacernos crecer profesional y personalmente.

(Des)información

Una de las mayores lacras de la confianza es el fenómeno de la desinformación. Cuando hablamos de desinformación, nos referimos a aquellos que crean y/o difunden deliberadamente información falsa para causar daño y, en ocasiones, lucrarse indebidamente.

Para estudiar la desinformación, se utiliza el marco de referencia ABC (acrónimo en inglés de Actor (quién), Behavior (cómo) y Content (qué)), propuesto por Camille François, Directora de Innovación de Graphika.

   - Actor:  manipuladores que buscan influir en procesos democráticos o en el ecosistema de la información.
   - Behavior: técnicas y comportamientos engañosos para, por ejemplo, simular que hay muchos usuarios con una determinada opinión cuando detrás solo hay un robot generando el mismo tipo de contenidos.
  - Content: contenido que se crea con el fin de atacar y devaluar la reputación de personas u organizaciones e influir en el debate público.


Uno de los problemas más graves de la desinformación es la pérdida de credibilidad de los movimientos sociales auténticos: Cualquier movimiento social que cuestiona el statu quo, es tachado de estar orquestado por trolls, deslegitimizando su propuesta.

 

El papel de las Big Tech en la lucha contra la desinformación

Las Big Tech han reaccionado aportando más transparencia, haciendo públicos los datos sobre troles y desactivando cuentas sospechosas, aunque el camino que tienen por delante aún es largo. Algunos de los grandes nombres de la industria son conscientes de la necesidad de su implicación a la hora de reconstruir la confianza del usuario digital, y no son pocos los que están dando pasos a favor de este proceso.

Nathaniel Gleicher, Jefe de Política de Ciberseguridad de Facebook resume la estrategia contra la desinformación de su compañía en este vídeo.

Google es otra de las compañías que tiene un papel primordial en esta labor. Así lo reconoce su política contra la desinformación, recogida en “How Google Fights Disinformation”.

¿Queremos, como ciudadanos, que nos digan la verdad o que nos digan lo que queremos escuchar de acuerdo a nuestra ideología, manera de pensar, valores, etc.?

A la hora de entender en qué dimensiones se mueve el fenómeno de la información contaminante,  Mary Blankenship  propone, en su trabajo de 2020: How Misinformation Spreads Through Twitter, tres categorías que permiten detectar las diferentes vías en las que la información puede ser manipulada para engañar o coaccionar al público.

   - Información errónea: ocurre cuando se comparte información falsa sin intención de dañar.
   - Desinformación: se da cuando se comparte información falsa con intención de dañar.
   - Malinformación: sucede cuando se comparte información genuina con intención de dañar.

El papel de las Administraciones Públicas

Cuando la confianza en las Administraciones Públicas es alta, el ciudadano se siente seguro y protegido y aumenta su confianza en otras instituciones públicas y privadas. De la misma manera, cuando la confianza en las Administraciones Públicas se deteriora, arrastra tras de sí al resto de instituciones, como un castillo de naipes.

Como podemos ver en el siguiente gráfico, existe mayor confianza en los servicios públicos (Educación, Sanidad, Sistema Judicial, Fuerzas y Cuerpos de Seguridad) que en el propio Gobierno. Los datos corresponden a países de la OCDE.

.

Los expertos apuntan como posible causa a que ciertos servicios públicos se sienten más cercanos, brindando experiencias que desarrollan afinidad y apego, esto es, que crean lealtad emocional. 
Es esencial, por tanto, que el sector público lidere la recuperación de la confianza, ya que el resto de actores sociales, también del ámbito privado, se beneficiarán de este proceso.
La OCDE propone una serie de medidas clave para conseguirlo:
   - Proactividad: proporcionar o regular servicios públicos.
   - Fiabilidad: anticiparse a los cambios y proteger a los ciudadanos.
   - Integridad: hacer uso del poder y de los recursos públicos de manera ética.
   - Transparencia: consultar, escuchar, implicar y explicar a los ciudadanos.
   - Equidad: mejorar las condiciones de vida de toda la ciudadanía.

¿Cuál es el rol de la tecnología en la confianza?

Para poder confiar en la tecnología, debemos asegurarnos de que la tecnología sea segura, responsable y protectora de la privacidad y de los datos.

Los grandes factores alrededor de la tecnología y la confianza son:

  • Los sesgos.
  • El uso indebido de los datos personales.
  • El miedo a la pérdida de puestos de trabajo debido a la automatización.

Los sesgos

Uno de los primeros problemas es que las tecnologías heredan los sesgos de sus creadores, de manera que los algoritmos pueden acabar siendo racistas o sexistas, por ejemplo. Un ejemplo que ha tenido mucha repercusión es el de un chatbot lanzado por Microsoft en 2016 que tuiteaba “palabras e imágenes tremendamente inapropiadas y reprobables”, como reconoció la propia compañía y que llevó a la misma a retirarlo y pedir disculpas.

Si bien no es posible eliminar por completo el sesgo en la IA, es esencial saber cómo reducir el sesgo y trabajar activamente para prevenirlo. Una forma de atacar el problema es con lo que se denomina "IA explicable" (“explainable AI”), que trata de que las aplicaciones de IA puedan ser entendidas e incluyan su propia trazabilidad, dejando de ser una “caja negra”.

Uso indebido de los datos

Por otro lado, hay un intenso debate sobre la privacidad de los datos personales, y también sobre la propiedad de dichos datos: si mis datos tienen valor, quiero verme recompensado cuando terceros los usan con fines lucrativos.

La privacidad de los datos y el uso que se haga de ellos es un asunto que requiere legislación y normativa. Dado que la digitalización y la globalización permiten las interacciones internacionales y globales entre distintos actores, el campo del uso de los datos requiere esfuerzos de cooperación y coordinación internacional si se quiere evolucionar hacia una sociedad más justa, más transparente y más equitativa.

Automatización y trabajo 

Según un estudio realizado por KPMG, el 67% de los empleados piensa que la tecnología puede llegar a reemplazarlos y el 70% cree que la inteligencia artificial, a largo plazo, acabará con más puestos de trabajo de los que creará, tal y como reflejan las conclusiones de una encuesta llevada a cabo por Gallup. Ese temor produce desconfianza en la tecnología. 

Parece claro que para los trabajos del futuro se necesitarán diferentes habilidades y pueden tener requisitos educativos más altos. Entre 75 millones y 375 millones de personas en todo el mundo pueden necesitar cambiar de categoría ocupacional y adquirir nuevas habilidades para el año 2030, según el informe “Jobs lost, jobs gained: Workforce transitions in a time of automation”, de McKinsey. 

 

¿Cómo hacer que la tecnología sea más confiable?

A la hora de fomentar la confianza en la tecnología y, más concretamente, en la inteligencia artificial, es necesaria una regulación que evite que se infrinjan nuestros derechos. No son pocas las iniciativas que hay en marcha a este respecto, pero podría decirse que, en resumen, lo fundamental es que el diseño y desarrollo de la tecnología se guie por cinco principios, según propone Anna Jobin:
   - Transparencia
   - Justicia y equidad
   - No maleficencia
   - Responsabilidad
   - Privacidad