Resumen generado por IA
La lingüística computacional, que estudia la lengua desde la informática, cuenta con más de 70 años de desarrollo pero aún enfrenta retos importantes. Desde las primeras máquinas traductoras hasta los asistentes personales y chatbots actuales, el campo ha avanzado significativamente, especialmente con las herramientas de procesamiento y análisis del lenguaje natural que surgieron en los 2000. Pilar Manchón, experta en informática lingüística, destaca varias áreas clave: reconocimiento de voz (transcripción del audio a texto), comprensión del lenguaje natural (entendimiento contextual, aunque sin comprensión real según el postulado de «competencia sin comprensión» de Daniel Dennett), gestión del diálogo (manejo de turnos y contexto en conversaciones), generación del lenguaje natural (creación de mensajes comprensibles) y síntesis del habla (transformar texto en voz).
El futuro de esta disciplina apunta hacia la multimodalidad, donde los sistemas no solo entienden el lenguaje, sino también el entorno y contexto, mejorando la interacción con asistentes virtuales. Además, la detección de personalidad mediante el lenguaje y la sintonización para mantener coherencia en el comportamiento serán fundamentales para una interacción más inteligente y personalizada. Sin embargo, surgen desafíos éticos relacionados con la privacidad y el manejo de datos, ya que estas tecnologías pueden usarse tanto para fines comerciales como para detectar conductas negativas en redes sociales. La inteligencia artificial es crucial para avanzar en la comprensión del lenguaje natural, mejorando así la relación entre humanos y máquinas.
Uno de los principales campos potenciales de la Inteligencia Artificial es la comprensión del lenguaje natural, que permitirá, entre otras cosas, la interacción hombre-máquina.
Aunque el campo de la lingüística computacional -el estudio de la lengua desde la perspectiva de la informática- tiene más de 70 años todavía tiene un largo camino por recorrer. Desde las primeras traducciones realizadas por una máquina hasta la actual explosión de asistentes personales, chatbots, etc., el auge de herramientas de procesamiento del lenguaje natural y de análisis del lenguaje en los años 2000 han propiciado una evidente evolución de este campo, con límites aún difusos.
Durante el Future Trends Forum, y de la mano de la experta Pilar Manchón, se destacaron las siguientes herramientas en informática lingüista:
– El reconocimiento de voz, que consiste en la transcripción del contenido de audio (la voz de una persona) a una serie de palabras.
Otro campo es la comprensión del lenguaje natural, que implica entendimiento del lenguaje, estableciendo correlaciones entre lo que vemos y lo que creemos. Manchón cree que en realidad estos sistemas ejercen una ‘competencia sin comprensión’, un postulado ampliamente compartido en la comunidad científica, propuesto por el filósofo de la mente y científico cognitivo Daniel Dennett. Esto quiere decir que, a nivel funcional, un sistema puede alcanzar un nivel de rendimiento (competencia) que en contextos humanos se atribuiría a la comprensión (es decir, la inteligencia) pero sin comprenderlo.
– La gestión del diálogo es imprescindible para tener una conversación. Hay que enseñar a la máquina a entender los turnos de palabra, saber a quién le toca hablar, a relacionar lo que ha dicho la otra persona y la información que hemos compartido en la conversación.
– La generación del lenguaje natural permite a la máquina comunicarse de forma que otro ser humano pueda comprenderla, teniendo una idea de qué va a tratar dicha interacción y cómo trascurrirá. Generar una tarea, un mensaje, una información, sin importar el qué, en lenguaje natural.
– La síntesis del habla, por su parte, hace que sea posible generar lenguaje natural en forma de voz.
El futuro del reconocimiento del lenguaje natural es la multimodalidad (o multitarea multimodal) cuya aplicación son asistentes virtuales con una visión más completa que puedan sentir y saber acerca de otras cosas que pasan en el entorno, además de lo que se le dice. Es decir, que además de entender el lenguaje, comprenda el contexto en el que se le habla.
Otro componente asociado sería la detección de personalidad, es decir, la capacidad para detectar la personalidad a través del lenguaje. Esto tiene que ver con el concepto de confianza: quién eres, de dónde vienes, qué es lo que sabes… La inteligencia inferida no sólo tiene que ver con lo que me dices. Teniendo en cuenta todas estas fuentes de información, se trata de entender cómo añadir una, dos y tres cosas más a lo que realmente estoy transmitiendo en un mensaje en particular y en cómo añadir toda esa información para dar un paso adelante de manera más inteligente. Y luego está la sintonización, que tiene más que ver con tener un comportamiento coherente para que las expectativas del usuario en cuanto a la interacción no se desajusten.
El futuro del campo de la comprensión del lenguaje natural pasa por unir todas estas piezas de forma correcta y hacerlo de forma ética, previniendo efectos negativos. Sin embargo, en muchos casos las necesidades técnicas chocan con asuntos delicados como por ejemplo la propiedad y gestión de los datos: quién posee esos datos, cuántos datos estamos compartiendo, si estamos compartiendo más de lo que queremos, cómo dices lo que dices, cuándo lo dices, a quién se lo dices, en qué tono se lo dices…De todos es sabido que hay empresas que utilizan las conversaciones para conocer a sus usuarios mejor y poder ofrecer publicidad, productos, etc. Pero estos sistemas también pueden usarse con fines loables como la detección de comportamientos de depredadores sexuales en la red, de acoso o de manipulación a través de las redes sociales.
Nuestros expertos consideran que la IA es clave para mejorar la comprensión del lenguaje natural por parte de las máquinas y así enriquecer la relación e interacción que tenemos con ellas.
Directora senior de estrategia de investigación en Inteligencia Artificial en Google