Las respuestas que dan estas aplicaciones sorprendieron casi al instante a varios expertos, como Bill Gates. Toda la información a continuación
Chatbots basados en IA como ChatGPT de OpenAI Demostraron en pocos meses lo útiles que son. Los llamados large language models (Large language models, LLM) son herramientas entrenadas con grandes cantidades de datos para conversar, resolver dudas o agilizar las tareas del usuario como lo haría un humano.
Las respuestas que dan casi instantáneamente a lo que la gente les pregunta asombraron a varios expertos, como Bill Gates. El cofundador de Microsoft expresaba en su blog hace unos meses que lo conseguido con la IA le recordaba lo que supuso la interfaz gráfica en su día.
Sin embargo, los LLM actuales tienen un largo camino por recorrer. Por eso, para que no se salga de control, los reguladores empiezan a proponer normativas, más o menos restrictivas, como las de la Unión Europea, EEUU o Japón.
¿Cómo se capacitan los LLM?
Los resultados del LLM, tan parecidos a los que daría un humano, no surgen de la nada. Detrás hay un entrenamiento que tiene en cuenta millones de datos que circulan por Internet.
Por ejemplo, el modelo LaMDA (Language Model for Dialogue Applications) en el que se basa Bard utiliza Wikipedia, “foros públicos” y “documentos de código de sitios relacionados con la programación, como sitios de preguntas y respuestas, tutoriales, etc.”.
A la luz del uso de los foros como información de capacitación, Reddit y StackOverflow anunciaron sus intenciones de comenzar a cobrar por el acceso a sus conversaciones de texto en línea.
ChatGPT crece día a día
Todos los datos recopilados de Internet (en este momento gratuitos para los desarrolladores de IA) se procesan en una red neuronal. Este último es una especie de “motor” de IA compuesto por nodos y capas que se ajustan constantemente para interpretar y dar sentido a la información almacenada en función del contexto de la conversación, teniendo en cuenta los resultados de ensayos y errores anteriores.
La mayoría de los LLM utilizan una estructura de red neuronal llamada “transformador”. Este concepto comenzó a ser utilizado por Google en 2017, al referirse a su desarrollo en IA. Actualmente es utilizado por más marcas, como OpenAI, con sus siglas GPT, que significa “Generative Pre-Trained Transformer”.
¿Qué es un transformador?
Un transformador puede leer grandes cantidades de texto (como los que manejan grandes LLM) y detectar patrones en cómo se formulan las oraciones y cómo se relacionan las palabras.
De esta forma, las conversaciones que parecen tan reales con los chatbots son todas fruto del procesamiento de datos con transformers.
LLM: lo que pueden llegar a ser
ChatGPT o Bard no son muy inteligentes, a pesar de ser conocido como AI. Eso es porque no saben lo que dicen, sino que aprendieron a poner una palabra tras otra para que el texto sea coherente y más creativo.
Sin embargo, también se enfocan en no ser repetitivos, por lo que en ocasiones no eligen las palabras más correctas para continuar su oración y eso puede derivar en textos menos significativos.
Google tiene su propia IA llamada “Bard”
Esto último no sucede con tanta frecuencia en los modelos más avanzados y se espera que suceda mucho menos con el tiempo.