Inteligencia artificial

GPT-3: el algoritmo que (casi) puede escribir por ti

GPT-3: el algoritmo que (casi) puede escribir por ti

Uno de los modelos predictivos de inteligencia artificial con grandes utilidades es el GPT-3. Este algoritmo puede completar textos imitando el estilo literario de un autor y se basa en la probabilidad de que ciertas palabras aparezcan en posiciones cercanas.

Un buen día, los lectores de The Guardian desayunaron con un artículo que aseguraba haber sido escrito por un robot. Era, concretamente, un artículo de opinión. Trataba de convencer a los humanos de que las intenciones de su autor —un algoritmo llamado GPT-3— y sus congéneres no tienen la menor intención de aniquilarnos o hacernos pasar un mal rato. Inquietante, ¿verdad?  

Ese día, miles de periodistas en todo el mundo empezaron a considerar el upskilling y el reskilling como algo más que un propósito de año nuevo. No es para menos: un modelo predictivo basado en inteligencia artificial que prácticamente puede escribir por un humano casi suena a brujería. 

Sin embargo, no hay magia detrás de GPT-3, solo un modelo predictivo e inteligencia artificial muy buenos a la hora de adivinar qué palabras siguen a otras. Algo así como el teclado predictivo de un smartphone, pero mucho más sofisticado. 

Qué es GPT-3 y por qué se le da tan bien escribir 

GPT-3 es uno de los frutos más avanzados de los avances que se han sucedido en los últimos años en procesamiento de lenguaje natural (PLN). El PLN es el campo de la inteligencia artificial que investiga cómo las máquinas se pueden comunicar mejor con los humanos utilizando sus propias lenguas naturales, como el español. 

Las plataformas de PLN se basan en modelos de lenguaje como GPT-3, que es uno de los más avanzados del mundo. Otros ejemplos son Bert —que Google emplea para comprender mejor las búsquedas de sus usuarios— o Wudao —desarrollado por la Academia de Inteligencia Artificial de Pekín y capaz de procesar tanto textos como imágenes—. 

Estos modelos predictivos son, en realidad, representaciones probabilísticas de la estructura de un idioma. Se basan en la probabilidad de que ciertas palabras aparezcan en posiciones cercanas. Esta es la principal razón por la que los modelos predictivos como GPT-3 pueden generar frases con sentido e incluso imitar el estilo literario de un autor en concreto. Si tienen las instrucciones necesarias, pueden adivinar con bastante precisión qué palabra aparecerá a continuación. 

Por supuesto, para que los modelos de lenguaje puedan construir frases e incluso artículos enteros con cierto sentido, tienen que acumular una cantidad de datos desorbitante. GPT-3 —la tercera versión que lanza el laboratorio californiano de inteligencia Artificial Open AI— utiliza una red neuronal de deep learning con 175.000 parámetros que trata de optimizar durante sus entrenamientos. En lugar de levantar pesas, GPT-3 se entrena con cientos de miles de millones de palabras procedentes de libros, páginas web, la Wikipedia y muchas otras fuentes de datos. 

Limitaciones de GPT-3 

Al absorber tanto contenido, GPT-3 tiene respuestas para casi todo. Basta con pedirle que escriba algo con determinadas instrucciones o incluso darle una frase inicial para que construya un artículo difícilmente distinguible del que escribiría un humano. De hecho, GPT-3 no solo se puede utilizar para producir textos informativos, sino también textos de ficción e incluso para escribir código en distintos lenguajes de programación.  

Entonces, ¿por qué este mismo artículo no lo ha escrito GPT-3 o algún otro modelo predictivo o inteligencia artificial? Básicamente, porque GPT-3 no entiende nada de lo que escribe. Su conocimiento es meramente sintáctico, no semántico. Solo se dedica a adivinar qué palabra viene después.  

Eso supone que GPT-3 no sabe detectar sesgos, intoxicaciones, distinguir si una frase tiene o no sentido o si una información está o no actualizada. Por eso resulta relativamente sencillo trolearlo y, por tanto, la fiabilidad de sus artículos es reducida. Por el contrario, su capacidad de producir textos tóxicos es muy elevada. 

InstructGPT, un sucesor con mucho trabajo por delante 

Este mismo mes de enero, Open IA presentó en sociedad una nueva versión de GPT-3. Es un modelo predictivo denominado InstructGPT, que ha sido entrenado por humanos para mejorar su fiabilidad, reduciendo el uso de lenguaje ofensivo y de informaciones falsas.  

¿Cuál es el problema? Que al ser mejor que GPT-3 para seguir las instrucciones que le dan las personas, también es capaz de generar textos mucho más tóxicos que su predecesor si así se le indica. Así que InstructGPT y sus desarrolladores todavía tienen mucho trabajo por delante para sortear el lado oscuro de este tipo de modelos. 

Parece que, una vez más, el pensamiento crítico de los humanos puede ayudarles a que un robot no les quite el trabajo. Esta capacidad es la que está detrás de un artículo de respuesta al escrito por un robot en The Guardian que mencionábamos al principio del texto. Su título: “Un humano ha escrito este artículo. No deberías asustarte de GPT-3”.  

Con todo, no está de más echar un vistazo a las habilidades más demandadas en la Economía Digital. Solo por si acaso los modelos predictivos evolucionan y la inteligencia artificial empieza a repartir currículos. 

Te puede interesar

Joan Vieyra: del laboratorio a la startup que quiere revolucionar la prevención médica

Joan Vieyra: del laboratorio a la startup que quiere revolucionar la prevención m[...]

Del aula al mundo real: así es como el programa Akademia cambia vidas. Joan Vieyra, ingeniero biomédico y alumni de la[…]

Leer más
Campus inmersivos: cómo la realidad extendida acelera la formación técnica 

Campus inmersivos: cómo la realidad extendida acelera la formación técnica 

Los entornos educativos empiezan a integrar tecnologías para formar en profesiones técnicas de alta demanda.

Leer más
Innovación alimentaria sin miedo: la apuesta de Alegría Serna por conectar ciencia y sociedad

Innovación alimentaria sin miedo: la apuesta de Alegría Serna por conectar cienc[...]

¿Qué comemos, por qué lo hacemos y cómo podemos transformar nuestros hábitos alimentarios para que sean más sosten[…]

Leer más

Últimas noticias

Café con Ezequiel Sánchez: cómo PLD Space impulsa la nueva era espacial europea

Café con Ezequiel Sánchez: cómo PLD Space impulsa la nueva era espacial europea

PLD Space quiere llevar a Europa a la nueva era espacial con cohetes reutilizables diseñados y fabricados en España

Leer más
Energía de fusión en España: ciencia puntera y liderazgo internacional, con Carlos Hidalgo y Ángel Ibarra

Energía de fusión en España: ciencia puntera y liderazgo internacional, con Car[...]

¿Qué papel juega España en el desarrollo de la energía de fusión? En este webinar del Future Trends Forum, dos refe[…]

Leer más
Richard Pearson: el ciclo del tritio, el gran reto oculto para la fusión comercial

Richard Pearson: el ciclo del tritio, el gran reto oculto para la fusión comercia[...]

En el Future Trends Forum Fusion Forward, Richard Pearson (Kyoto Fusioneering) advierte sobre un problema ineludible y p[…]

Leer más