¿Estás interesado en ellos? OFERTAS? Ahorra con nuestros cupones en Whatsapp o TELEGRAMA!

Cómo evolucionó la IA lingüística y cómo llegamos a ChatGPT

Inteligencia artificial hoy está en boca de todos. A estas alturas ya sabemos cómo usarlo: solo acceda a Internet y use plataformas como ChatGPT, Dall-E y Synthesia. En este sentido, estamos preparando un interesante artículo sobre 10 webs que utilizan la inteligencia artificial para hacer cosas muy diferentes. Pero dicho esto, tomemos el ejemplo de la IA más utilizada. ¿Cómo nació? cómo llegamos a la versión que todos podemos usar hoy ¿gratis?

Hoy en día, muchos de nosotros usamos ChatGPT, pero no todos saben qué hay detrás y cómo llegamos allí. Aquí hay una línea de tiempo desde los años 80 hasta hoy.

Empecemos por los 80: Redes Neuronales Recurrentes

ChatGPT es una versión de GPT-3, un modelo de lenguaje muy grande desarrollado por OpenAI. Los modelos de lenguaje son un tipo de red neuronal que ha sido entrenado en muchísimos textos. Las redes neuronales son un software inspirado en la forma en que las neuronas del cerebro humano se comunican entre sí. Dado que cualquier texto está compuesto por secuencias de letras y palabras de longitud variable, los modelos de lenguaje requieren un tipo de red neuronal capaz de dar sentido a este tipo de datos. Las redes neuronales recurrentes (Redes neuronales recurrentes) inventado en la década de 80, puede manejar secuencias de palabras, pero es lento de entrenar y puede olvidar palabras previamente aprendidas en una secuencia. Los LSTM podían manejar cadenas de texto de varios cientos de palabras, pero sus capacidades lingüísticas eran limitadas. ¿Cuáles son? Acrónimo de "Memoria a corto plazo largo"o"memoria a largo plazo” es una red neuronal artificial utilizada en los campos de la inteligencia artificial 

chatgpt ai bot inteligencia artificial

Lea también: Google confirma la compatibilidad del contenido generado por Chatbot e IA

2017: el año del avance de la inteligencia artificial con los Transformers

El gran avance que condujo a la generación actual de modelos de lenguaje grande se produjo cuando un equipo de investigadores de Google inventó el Transformadores, un tipo de red neuronal que puede realizar un seguimiento de dónde aparece cada palabra o frase en una secuencia. Comprenderás por ti mismo que el mayor problema de LSTM está superado. ¿Pero cómo lo han hecho? El concepto de lingüística aplicada entra en tecnología. El significado de una palabra a menudo depende del significado de otras palabras que la preceden o la siguen. Haciendo un seguimiento de estos Información contextual, Transformers puede manejar cadenas de texto más largas y capturar el significado de las palabras con mayor precisión. Por ejemplo, "perrito caliente" tiene un significado muy diferente en las oraciones "prefiero las hamburguesas a los perritos calientes"Y"Los perros calientes se comen mejor con mostaza“. En esencia, la información contextual, que es lo que los seres humanos captan y las máquinas no, ha hecho posible marcar la diferencia.

2018-2019: los años del desarrollo de GPT

Los dos primeros modelos de lenguaje principales de OpenAI llegaron con meses de diferencia. La empresa quería desarrollar una IA multipropósito y de propósito general y cree que los modelos de lenguaje grandes son un paso clave hacia este objetivo. De esta forma el software es capaz de detectar patrones en los datos usted mismo, sin que se les diga lo que están viendo o leyendo. Muchos éxitos anteriores en el aprendizaje automático se han basado en el aprendizaje supervisado y los datos anotados, pero el etiquetado manual de datos es un trabajo lento que limita el tamaño de los conjuntos de datos disponibles para el entrenamiento. Era el GPT-2 para crear el mayor revuelo. De hecho, OpenAI dijo que estaba muy preocupado de que la gente pudiera estar usando GPT-2”.generar lenguaje engañoso, distorsionado o abusivo” que no lanzaría el modelo completo. Pero eso no es todo.

Si GPT-2 fue impresionante, la secuela de OpenAI, GPT-3, literalmente hizo la revolución. Su habilidad para generar textos similares a los humanos representó un gran salto adelante. GPT-3 puede responder preguntas, resumir documentos, generar historias en diferentes estilos, traducir entre inglés, francés, español y japonés, y mucho más. Sin embargo, todavía no puede reemplazar a un ser humano porque carece de las características fundacionales de la humanidad. Hablamos de ello en profundidad. este artículo.

Fuente | MIT

Gianluca Cobucci
Gianluca Cobucci

Apasionado del código, los lenguajes y lenguajes, las interfaces hombre-máquina. Todo lo que es evolución tecnológica me interesa. Intento divulgar mi pasión con la máxima claridad, apoyándome en fuentes fiables y no "a la primera".

Suscribir
notificar
invitado

0 comentarios
Comentarios en línea
Ver todos los comentarios
XiaomiToday.it
Logotipo