Alumni

Entrevista con Aldan Creo: de Akademia a experto en procesamiento de lenguaje natural y grafos de conocimiento 

Entrevista con Aldan Creo: de Akademia a experto en procesamiento de lenguaje natural y grafos de conocimiento 

Aldan Creo se encuentra innovando en la mejora de los sistemas de procesamiento de lenguaje natural para conseguir que sean más escalables, más comprensibles y más fiables

En la Fundación Innovación Bankinter, sentimos un gran orgullo por los exalumnos que han formado parte de nuestro programa Akademia.

La singularidad del programa radica en su diseño y ejecución: abarca desde un meticuloso proceso de selección de estudiantes hasta un enfoque práctico y vanguardista en el contenido de las clases, complementado por la excelencia de los docentes. Esto resulta en alumnos entusiastas por la innovación, preparados para aportar ideas nuevas y soluciones creativas en sus campos de especialización.

En esta ocasión entrevistamos a Aldan Creo, antiguo alumno de Akademia y experto en inteligencia artificial. Aldan es un especialista en investigación tecnológica en Accenture Labs – The Dock, con un impresionante historial académico y profesional en el campo de la inteligencia artificial, especialmente en procesamiento de lenguaje natural y grafos de conocimiento.

Aldan se graduó como número uno en Ingeniería Informática en la Universidad de Santiago de Compostela. Además, realizó programas de intercambio en la Università della Svizzera Italiana (USI) y en la Sorbonne Université, destacando por sus altas calificaciones en ambas instituciones.

Tras su graduación, Aldan se trasladó a Dublín para centrarse en la investigación de IA aplicada a grafos de conocimiento en The Dock, el mayor laboratorio de investigación en IA a nivel global de Accenture. Anteriormente, participó en proyectos de investigación en el Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) y en Gradiant, centrados en el análisis de Large Language Models (LLMs) (para entendernos, modelos del tipo de ChatGPT), y la implementación de algoritmos de resumen de textos. También ha contribuido al Open Source en el Google Summer of Code.

Aldan ha sido reconocido con varios premios y becas por su excelencia académica y contribuciones al campo de la IA. Entre ellos, se destaca el Premio Extraordinario de Grado por ser el primero de su promoción, o su selección en la lista de estudiantes Nova 111 de España.

A continuación, resumimos la entrevista que mantuvimos con Aldan:

Experiencia en Akademia: ¿Cómo influyó tu participación en el programa Akademia de la Fundación Bankinter en tu carrera profesional y en tus intereses académicos, especialmente en el campo de la inteligencia artificial?

Para mí, la experiencia fue fundamentalmente enriquecedora en tres aspectos clave. En primer lugar, me permitió conocer a personas con intereses similares, especialmente en el ámbito del emprendimiento y, más concretamente, en el de inteligencia artificial. Este aspecto resultó ser de gran valor, ya que facilitó la creación de una red de contactos activos y afines a mis intereses. Esto es crucial, ya que te hace sentir acompañado en tus empeños y te conecta con personas que comparten tus pasiones.

Mi involucración en Akademia comenzó en el último año de mi carrera universitaria, mientras estaba finalizando mi TFG enfocado en el procesamiento del lenguaje natural (NLP). Habitualmente, la investigación académica puede ser bastante aislada, centrada exclusivamente en los resultados y publicaciones en un entorno cerrado. Sin embargo, Akademia me ayudó a expandir mi visión, a entender cómo mi investigación podría aplicarse en situaciones de la vida real y tener un impacto significativo. Fue una revelación comprender que el trabajo que estaba realizando podría trascender los límites académicos y contribuir de manera concreta y tangible a la sociedad. Este es el segundo aspecto.

Y el tercer aspecto fundamental que me marcó de Akademia fue la perspectiva única que proporciona sobre el emprendimiento. A menudo, podemos tener una visión algo limitada o distorsionada sobre lo que implica emprender. El programa me ayudó a comprender que el verdadero emprendimiento se basa en desarrollar una propuesta sostenible, es decir, una idea que no solo tenga un impacto momentáneo o efímero, sino que perdure en el tiempo y tenga un significado relevante. Esta nueva visión del emprendimiento me ha sido extremadamente valiosa. En lugar de enfocarse en la mera acción de emprender, el programa enfatiza la importancia de la sostenibilidad y la evolución de las ideas. Fernando Alfaro insistía continuamente en este punto. La idea de que emprender no debe ser un fin en sí mismo, sino un medio para crear algo que no solo sobreviva, sino que también aporte valor de manera continua y progresiva.

Transición a la IA: Con una sólida formación en informática, ¿cómo fue tu transición hacia especializarte en inteligencia artificial?

Mi transición hacia la especialización en inteligencia artificial comenzó de manera bastante inesperada y fortuita durante mi estancia Erasmus en la Sorbonne Université en París. Allí, tuve la oportunidad de colaborar con un profesor en un proyecto de investigación en inteligencia artificial, específicamente en machine learning. A pesar de no tener experiencia previa en IA, acepté el reto, y me sumergí en una investigación sobre agentes autónomos que aprendían a resolver un juego virtual mediante reinforcement learning (es un método de machine learning basado en recompensar los comportamientos deseados y castigar los no deseados. En general, un agente de aprendizaje por refuerzo -la entidad que se entrena- es capaz de percibir e interpretar su entorno, realizar acciones y aprender por ensayo y error). Lo interesante de este proyecto era la aplicación de optimizaciones experimentales a una técnica llamada population-based training. En ella, diversos agentes entrenados se sometían a un proceso evolutivo: los agentes más eficientes reemplazaban a los menos eficaces, pero con variaciones en sus parámetros para promover la adaptabilidad y mejora continua. Este enfoque fue mi introducción a la investigación en IA y me fascinó la capacidad de esta tecnología para trascender fronteras y ofrecer nuevas soluciones.

Mi interés por la IA aumentó cuando, durante la realización de un informe de investigación, me percaté de la ausencia de herramientas de IA capaces de resumir artículos científicos en un caso de uso específico. Esta carencia me inspiró a enfocar mi trabajo de fin de grado (TFG) en la sumarización de textos científicos, en el campo del procesamiento del lenguaje natural, justo unos meses antes de que tecnologías como ChatGPT empezasen a ganar relevancia.

Mi incursión en la inteligencia artificial fue, por tanto, una combinación de casualidad, curiosidad y la identificación de una necesidad no cubierta. Al finalizar mi grado, continué mi trayectoria en el ámbito del NLP, lo que finalmente me llevó a unirme a Accenture en su laboratorio de investigación. Fue una transición de explorar distintos campos dentro de la IA, desde el reinforcement learning hasta el NLP, siempre impulsada por la búsqueda de aplicaciones prácticas y significativas de esta tecnología.

Investigación en IA en Accenture: En tu rol actual como investigador de IA en Accenture The Dock, ¿en qué proyectos específicos de procesamiento de lenguaje natural y grafos de conocimiento has trabajado y cuáles han sido tus principales contribuciones?

Me he centrado principalmente en dos áreas: el procesamiento de lenguaje natural y los grafos de conocimiento. Una de las áreas clave en las que he trabajado es la estructuración de datos complejos a través de grafos de conocimiento. Esto implica la creación de redes interconectadas de información, donde cada nodo representa un ente único, como una persona o un hecho, y los vértices representan las relaciones entre estos nodos. Por ejemplo, en un contexto de salud, podríamos construir un grafo que conecte pacientes, sus condiciones médicas, ubicaciones, y otros factores relevantes. Utilizando técnicas de inteligencia artificial como los algoritmos empleados para generar Knowledge Graph Embeddings, representaciones internas de estos conceptos y relaciones, es posible explorar asociaciones significativas, como, por ejemplo, la relación entre ciertos genes y enfermedades, crucial en la investigación farmacéutica. Estos algoritmos ayudan a reducir significativamente el tiempo y recursos necesarios para identificar posibles relaciones genéticas con ciertas enfermedades, acelerando el proceso de desarrollo de nuevos medicamentos.

En cuanto al procesamiento de lenguaje natural, estamos abriendo una nueva línea centrada en mejorar la interpretación y generación de lenguaje en modelos de IA. Una debilidad clave en los algoritmos actuales es su tendencia a producir resultados sin sentido (alucinaciones). Para abordar esto, estamos explorando formas de integrar el conocimiento semántico de los modelos de lenguaje con la comprensión topológica proporcionada por los grafos de conocimiento. Esto involucra combinar representaciones generadas por modelos de lenguaje con las de los grafos para mejorar la precisión y relevancia de las predicciones y análisis de la IA. El objetivo es ayudar a obtener respuestas más lógicas y coherentes, reduciendo así el riesgo de alucinaciones o errores lógicos en la generación de texto.

Desafíos en IA: Basado en tu experiencia, ¿cuáles consideras que son los mayores desafíos actuales en el campo del procesamiento de lenguaje natural y cómo los estás abordando en tu trabajo?

Uno de los mayores desafíos en modelos de procesamiento de lenguaje natural es el que acabo de explicar: el de las alucinaciones de los modelos. Una forma de abordarlo es intentando combinar estos modelos con grafos de conocimiento general. Por ejemplo, ChatGPT podría generar una frase como «Esta noche hace un sol brillante», que es gramaticalmente correcta pero lógicamente falsa. Si quisiéramos abordar este problema, podríamos integrar un grafo de conocimiento general en ChatGPT (u otro modelo de lenguaje). Este tipo de grafos incluyen nodos y conexiones representando hechos y relaciones lógicas del mundo real. Por ejemplo, nodos para «noche», «día», «sol», «luna», y relaciones que reflejan hechos como «la noche está asociada con la oscuridad» y «el día está asociado con el sol». Al generar texto, en lugar de depender únicamente de su aprendizaje de lenguaje previo, el modelo también consultaría este grafo de conocimiento. Al procesar una frase como «Esta noche hace un sol brillante», el sistema podría contrastar esta afirmación con la información del grafo, reconociendo que «noche» y «sol brillante» son incompatibles según el conocimiento general. Utilizando este enfoque, el sistema se beneficia de una base de conocimiento estructurada que le ayuda a validar la coherencia lógica de sus respuestas, mejorando significativamente la precisión y relevancia de su generación de texto.

Mi experiencia también me ha permitido identificar otros dos desafíos principales en el campo del procesamiento del lenguaje natural que son cruciales: el escalado y la explicabilidad. En NLP, a menudo nos encontramos con estructuras de datos enormes. El manejo efectivo de tales volúmenes de datos es un reto considerable. Por ejemplo, al intentar procesar un libro completo, los sistemas actuales a menudo fallan. Para abordar este problema, vuelve a ser interesante la combinación de tecnologías de NLP con algoritmos avanzados de grafos de conocimiento, que son más capaces de manejar grandes volúmenes de datos. Esta combinación busca lograr sistemas más escalables que puedan procesar eficientemente grandes cantidades de información.

El ultimo desafío es la explicabilidad de los sistemas de NLP. Actualmente, estos sistemas son muy difíciles de interpretar en términos de por qué generan las respuestas que generan. Con billones de parámetros involucrados, es casi imposible rastrear la lógica detrás de cada respuesta generada. En contraste, los algoritmos basados en grafos de conocimiento ofrecen una mayor explicabilidad. Puedes examinar el grafo y entender la lógica detrás de las predicciones, lo que los hace más transparentes y fiables. Una hibridización de modelos de lenguaje con grafos de conocimiento no solo aumenta la confianza en los resultados generados, sino que también reduce la probabilidad de resultados imprevistos o erróneos.

En resumen, la unión de modelos de lenguaje con grafos de conocimiento es una vía para construir sistemas más escalables y eficientes en el manejo de grandes conjuntos de datos, y también más comprensibles y fiables.

Aplicaciones prácticas de la IA: ¿Podrías compartir algún ejemplo concreto de cómo tu trabajo en procesamiento de lenguaje natural y grafos de conocimiento está siendo aplicado o podría aplicarse en el mundo real?

La verdad es que nuestro trabajo tiene aplicación en áreas muy diversas y prometedoras. Un ejemplo concreto es la predicción de asociaciones entre genes y enfermedades, lo que representa un avance significativo en la medicina personalizada y la investigación biomédica. Además, estas tecnologías tienen aplicaciones potenciales en la gestión de crisis climáticas. Podemos usarlas para mejorar las predicciones climáticas, lo que es crucial para la planificación y respuesta a desastres naturales. De hecho, la capacidad de hacer predicciones precisas en este campo puede tener un impacto sustancial en cómo nos preparamos para y respondemos a los cambios climáticos.

Otro ámbito de aplicación es en la mejora de algoritmos para servicios de streaming, como podría ser el caso de Netflix. Aunque no tengo conocimiento específico de cómo Netflix implementa sus algoritmos de recomendación, es plausible que utilicen grafos de conocimiento. Estos grafos pueden ayudar a entender mejor las preferencias de los usuarios y recomendar contenido de manera más precisa y personalizada, basándose en perfiles de gustos similares entre diferentes usuarios.

En resumen, el trabajo que desarrollamos en nuestro equipo, por ejemplo con nuestra librería AmpliGraph, tiene el potencial de ser aplicado en múltiples campos, desde la salud hasta el entretenimiento, demostrando la versatilidad y el alcance transformador de la inteligencia artificial en el mundo real.

Futuro de la IA: ¿Cómo ves el futuro del procesamiento de lenguaje natural y los grafos de conocimiento en los próximos años, y qué impacto crees que tendrán en la industria y la sociedad?

El futuro del procesamiento del lenguaje natural y los grafos de conocimiento parece encaminarse hacia una evolución constante y progresiva, más que a cambios disruptivos inmediatos. A corto plazo, no espero una revolución comparable a la aparición de una inteligencia artificial general, sino más bien una integración gradual y creciente de estas tecnologías en la vida cotidiana y en los procesos empresariales.

La investigación en NLP y grafos de conocimiento continuará a un ritmo acelerado, como lo ha estado haciendo hasta ahora, con avances significativos en términos de robustez y fiabilidad. Estos avances, sin embargo, no representarán necesariamente una innovación radicalmente nueva, sino más bien una mejora de las capacidades existentes. Por ejemplo, la integración de NLP y grafos de conocimiento dará lugar a sistemas más robustos, pero no fundamentalmente diferentes en su naturaleza.

En términos prácticos, esto significa que veremos una mayor adopción de estas tecnologías en tareas cotidianas y en aplicaciones empresariales. La inteligencia artificial empezará a aparecer en aspectos más comunes de nuestras vidas, como la gestión de correos electrónicos o la generación de resúmenes de noticias. Esta integración será similar a la forma en que los smartphones se convirtieron gradualmente en una parte esencial de la vida cotidiana.

A nivel empresarial, la inteligencia artificial, incluyendo NLP y los grafos de conocimiento, ya está despertando gran interés. Las empresas están estudiando activamente cómo aplicar estas tecnologías a sus procesos de negocio. Aunque la implementación puede llevar tiempo, está claro que la tendencia es hacia una adopción más amplia y eficiente de la inteligencia artificial en diversos sectores.

Consejos para aspirantes a expertos en IA: Para aquellos interesados en seguir una carrera en IA, especialmente en áreas como el procesamiento de lenguaje natural, ¿qué consejos o recomendaciones les darías basado en tu experiencia?

Mi consejo principal para los aspirantes a expertos en IA es comprender profundamente las bases técnicas y la evolución histórica de esta disciplina. Es esencial reconocer que muchos de los conceptos y tecnologías fundamentales en IA fueron concebidos hace más de 50 años. Aunque las bases conceptuales han permanecido constantes, la capacidad de implementar estas ideas ha evolucionado drásticamente debido a los avances en el hardware y la disponibilidad de grandes cantidades de datos.

Entender esta evolución es crucial. En los años 60, por ejemplo, aunque las ideas fundamentales de la IA ya existían, no teníamos la capacidad computacional ni los datos necesarios para desarrollar sistemas de IA efectivos. Hoy en día, aunque las tecnologías y las librerías han cambiado, los principios subyacentes siguen siendo en gran medida los mismos. Por lo tanto, es fundamental no solo familiarizarse con las herramientas y tecnologías actuales, sino también comprender cómo y por qué se desarrollaron estas tecnologías y qué problemas intentaban resolver.

En resumen, para aquellos interesados en una carrera en IA, recomiendo encarecidamente una formación técnica profunda que no solo abarque las tecnologías y técnicas actuales, sino que también incluya un estudio de la historia y la evolución de la IA. Esto proporcionará una comprensión más rica y completa de la disciplina, permitiendo no solo aplicar la tecnología actual, sino también innovar y contribuir al campo en el futuro.

Colaboración entre el mundo académico y la industria: Desde tu perspectiva, ¿cómo puede fortalecerse la colaboración entre el mundo académico y la industria para impulsar avances significativos en IA, especialmente en áreas como el procesamiento de lenguaje natural y los grafos de conocimiento?

Una estrategia eficaz para lograr esto es a través de proyectos de investigación conjuntos entre universidades y empresas. Estos proyectos no solo fomentan la transferencia de conocimientos, sino que también permiten aplicar directamente los avances teóricos en entornos prácticos, beneficiando tanto al ámbito académico como al industrial.

Además, los programas que se enfocan en la transferencia de conocimiento desempeñan un papel fundamental. La investigación que se realiza en las universidades puede y debe ser transferida a las empresas de manera eficiente. Creo que este modelo ya está funcionando bien, pero siempre hay margen para mejorar y expandir estas iniciativas.

Por otro lado, los programas de emprendimiento que conectan la academia con la industria son esenciales. Programas como Akademia, que considero un referente, juegan un rol clave en este sentido.

¡Muchas gracias, Aldan!

Si quieres conocer los testimonios de otros alumni de Akademia, aquí puedes verlos.

Y si quieres saber más sobre el programa Akademia, te invitamos a visitar la web de la Fundación.

Te puede interesar

Materiales del futuro: diseñados por algoritmos, pensados para la sostenibilidad 

Materiales del futuro: diseñados por algoritmos, pensados para la sostenibilidadÂ[...]

La innovación en materiales ya no se basa únicamente en la extracción de recursos naturales: ahora se diseñan a medi[…]

Leer más
De  ITER a  IFMIF‑DONES: los grandes proyectos que cambiarán la industria europea 

De  ITER a  IFMIF‑DONES: los grandes proyectos que cambiarán la industria e[...]

Descubrimos las infraestructuras científicas de vanguardia que posicionan a Europa en la carrera por la energía del fu[…]

Leer más
Robots que entienden: el desafío de la interacción humano-máquina 

Robots que entienden: el desafío de la interacción humano-máquina 

Descubrimos la evolución de los modelos de lenguaje e IA física aplicada a la robótica cognitiva y sus implicaciones […]

Leer más

Últimas noticias

Talento emergente: cómo formar liderazgos adaptativos en la era de la incertidumbre

Talento emergente: cómo formar liderazgos adaptativos en la era de la incertidumb[...]

Cómo las nuevas generaciones desarrollan capacidades adaptativas frente a la automatización, la complejidad y la inest[…]

Leer más
Materiales del futuro: diseñados por algoritmos, pensados para la sostenibilidad 

Materiales del futuro: diseñados por algoritmos, pensados para la sostenibilidadÂ[...]

La innovación en materiales ya no se basa únicamente en la extracción de recursos naturales: ahora se diseñan a medi[…]

Leer más
Interfaces inteligentes: el aula del futuro se diseña con IA

Interfaces inteligentes: el aula del futuro se diseña con IA

Cómo la inteligencia artificial y las neurotecnologías están transformando la educación sin perder la centralidad de[…]

Leer más