Juankidd commited on
Commit
8a013eb
·
verified ·
1 Parent(s): 026f9d3

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +0 -72
README.md CHANGED
@@ -1,72 +0,0 @@
1
- Inteligencia Artificial Generativa: fundamentos
2
-
3
- Introducción
4
-
5
- La inteligencia artificial se ha convertido en uno de los motores de la economía del siglo XXI, sobre todo gracias al desarrollo de la inteligencia artificial generativa. En este artículo se describe qué es la inteligencia artificial generativa y cuáles son sus fundamentos, prestando especial atención a los Modelos de Lenguaje de Gran Escala (large language models, LLMs). Se realiza una pequeña revisión histórica para analizar cómo ha evolucionado la IA hasta nuestros días para después presentar los modelos y técnicas más relevantes. Se analizarán las limitaciones y desafíos de las técnicas utilizadas hasta ahora y se explicará cómo la inteligencia artificial generativa está ofreciendo nuevas y mejores alternativas para la resolución de problemas. Los aspectos éticos y sociales ligados al uso de estas tecnologías también son de gran relevancia y se estudiarán a lo largo de este documento. Finalmente, se analizarán tendencias futuras y se ofrecerá la visión de los autores sobre el potencial de esta tecnología y cómo cambiará el mundo.
6
-
7
- 1. Definición y fundamentos
8
-
9
- Esta sección describe qué es la inteligencia artificial (IA) generativa, haciendo hincapié en sus elementos más significativos y diferenciadores. Después se presenta una breve revisión de la evolución de la inteligencia artificial y cómo esta ha dado lugar a la IA generativa tal y como la conocemos en la actualidad. Finalmente, se presenta un resumen de los pasos que ha dado la IA hasta llegar al momento en el que estamos.
10
-
11
- 1.1 ¿Qué es la IA generativa?
12
-
13
- Se define la IA generativa como una rama de la inteligencia artificial capaz de generar contenido novedoso, en contraposición a la simple acción de analizar o actuar sobre datos ya existentes, como lo hacen los sistemas expertos (Vaswani et al., 2017). Esto supone una auténtica evolución sobre los sistemas inteligentes utilizados hasta la fecha basados, por ejemplo, en redes neuronales, sistemas de razonamiento basados en caso, algoritmos genéticos, lógica difusa (Nguyen et al., 2013) o modelos híbridos de IA (Diaz et al., 2016; Abraham et al., 2009; Corchado & Aiken, 2002; Corchado et al., 2021) y modelos y algoritmos que utilizaban datos concretos sobre problemas concretos y que generaban una respuesta concreta en base a los datos de entrenamiento.
14
-
15
- La inteligencia artificial generativa incorpora modelos discriminadores o transformadores entrenados en un corpus o conjunto de datos, capaz de mapear la información de entrada en un espacio latente de alta dimensión. Además, posee un modelo generador que impulsa un comportamiento estocástico, creando contenido novedoso en cada intento, incluso con los mismos estímulos de entrada. Estos modelos pueden realizar aprendizaje no supervisado, semisupervisado o supervisado, dependiendo de la metodología específica. Aunque este artículo pretende presentar todo el potencial de la IA generativa, se pone el foco en los LLM para, a partir de ahí, generalizar (Chang et al., 2023). Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) son una subcategoría de la inteligencia artificial (IA) generativa. La IA generativa se refiere a modelos y técnicas que tienen la capacidad de generar contenido nuevo y original y, dentro de este ámbito, los LLMs se especializan en generar texto. Un LLM como GPT (Generative Pre-trained Transformer) de OpenAI se entrena, básicamete, para generar texto, o más bien para responder a preguntas con párrafos de texto (Guan et al., 2020). Una vez entrenado, puede generar oraciones y párrafos completos que son coherentes y, en muchos casos, indistinguibles de los escritos por humanos, simplemente a partir de un estímulo o prompt inicial (Madotto et al., 2021).
16
-
17
- Mientras que la IA generativa también abarca modelos que pueden generar otros tipos de contenido como imágenes (por ejemplo, DALL·E, también de OpenAI) o música, los LLMs se centran específicamente en el dominio del lenguaje (Adams, et al., 2023). Por lo tanto, se puede considerar a los LLMs como una parte o subconjunto de la amplia categoría de IA generativa.
18
-
19
- Los LLM son redes neuronales diseñadas para procesar datos secuenciales (Bubeck et al., 2023). Un LLM puede entrenarse con corpus de texto (libros digitalizados, bases de datos, información procedente de internet, etc.) y utilizando ese texto de entrada para aprender a generar textos, palabra por palabra en una secuencia, dada la información previa. Quizás los Transformers sean los modelos más utilizados en la construcción de estos LLM (Von Oswald et al., 2023). Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) no utilizan exclusivamente Transformers, aunque los Transformers, en particular la arquitectura introducida en el paper "Attention Is All You Need" por Vaswani et al. en 2017, han demostrado ser especialmente efectivos para tareas de procesamiento del lenguaje natural (Nadkarni et al., 2011) y han sido la base de muchos LLMs populares como GPT y BERT. Sin embargo, antes de la popularización de los transformadores, las redes neuronales recurrentes (RNNs) y sus variantes, como las redes LSTM (Long Short-Term Memory) y GRU (Gated Recurrent Units), eran comúnmente utilizadas para modelar secuencias en tareas de procesamiento del lenguaje natural (Sherstinsky, 2020; Tang et al., 2020).
20
-
21
- A medida que la investigación en el campo de la inteligencia artificial y el procesamiento del lenguaje natural continúa avanzando, es posible que surjan nuevas arquitecturas y enfoques que se utilicen en conjunción con o en lugar de los Transformers en futuros LLMs. Por tanto, aunque los Transformers son actualmente una arquitectura dominante para los LLMs, no son la única arquitectura utilizada, pero si son una de las más fiables a la hora de generar un nuevo texto que es gramaticalmente correcto y semánticamente significativo (Vaswani et al., 2017). Eso es debido a tres elementos concretos: (a) el primero es el uso de mecanismos de codificación posicional, que permiten a la red asignar una posición a una palabra dentro de una frase de forma que esa posición forma parte de los datos de entrada de la red. Con eso se consigue que la información sobre el orden de la palabra pase a estar en el propio dato y no en la estructura de la red, por lo que, según se va entrenando la red, con muchísimos datos textuales, esta aprende cómo interpretar esa codificación de la posición y a ordenar las palabras de forma coherente a partir de los datos propios utilizados en el entrenamiento; (b) en segundo lugar la atención (Bahdanav et al., 2014), que surgió como mecanismo para traducir texto de un idioma a otro con sentido desarrollando algoritmos para relacionar unas palabras con otras y así saber utilizarlas en el contexto adecuado; (c) finalmente la autoatención o atención autorregresiva, que permiten conocer mejor las características del lenguaje, además del género y orden, como por ejemplo los sinónimos, que se identifican analizando muchos ejemplos.
22
-
23
- Lo mismo sucede con las conjugaciones verbales, adjetivos, etc. Los enfoques anteriores que asignan importancia basada en frecuencias de palabras pueden tergiversar la verdadera importancia semántica de una palabra, por el contrario, la autoatención permite que los modelos capturen relaciones semánticas a largo plazo dentro de un texto de entrada, incluso cuando ese texto se divide y se procesa en paralelo (Vaswani et al., 2017). Cuando hablamos de generar texto, estamos hablando también de crear contenido y secuencias de, por ejemplo, proteínas, audio, código informático o movimientos de ajedrez (Eloundou et al., 2023).
24
-
25
- Los avances a nivel de algoritmia con el desarrollo de los Transformers, por ejemplo, junto con la capacidad de cálculo actual y la capacidad de preentrenar con datos no etiquetados y de refinar el entrenamiento (fine tuning) ha sido lo que ha impulsado esta gran revolución de la IA. El rendimiento del modelo depende fuertemente de la escala de cómputo, que incluye la cantidad de poder computacional utilizado para el entrenamiento, el número de parámetros del modelo y el tamaño del conjunto de datos. Preentrenar un LLM requiere cientos o miles de GPUs y semanas a meses de tiempo de entrenamiento dedicado. Por ejemplo, se estima que una sola ejecución de entrenamiento para un modelo GPT-3 con 175 mil millones de parámetros, entrenado en 300 mil millones de tokens, puede costar cinco millones de dólares solo en costos computacionales.
26
-
27
- Los LLM pueden ser preentrenados en grandes cantidades de datos no etiquetados. Por ejemplo, GPT es entrenado en datos de texto no etiquetados, lo que le permite aprender patrones en el lenguaje humano sin una guía explícita (Radford y Narasimhan, 2018). Dado que los datos no etiquetados son mucho más prevalentes que los datos etiquetados, esto permite que los LLM aprendan sobre el lenguaje natural en un corpus de entrenamiento mucho más grande (Brown et al., 2020). El modelo resultante puede ser utilizado en múltiples aplicaciones porque su entrenamiento no es específico para un conjunto particular de tareas.
28
-
29
- Los LLM de propósito general pueden ser "ajustados" para generar una salida que coincida con las prioridades de cualquier configuración específica (Ouyang et al., 2022; Liu et al., 2023), lo que se conoce en inglés como fine tuning. Por ejemplo, un LLM puede generar varias respuestas potenciales a una consulta dada, pero algunas de ellas pueden ser incorrectas o sesgadas. Para afinar este modelo, expertos humanos pueden clasificar las salidas para entrenar una función de recompensa que priorice algunas respuestas sobre otras. Tales refinamientos pueden mejorar significativamente la calidad del modelo, haciendo que un modelo de propósito general se adapte para resolver un problema concreto (Ouyang et al., 2022).
30
-
31
- 1.2 Historia y evolución de la IA hasta llegar a la IA generativa
32
-
33
- La inteligencia artificial es un campo de la informática y la tecnología que se ocupa del desarrollo de sistemas informáticos que pueden realizar tareas que suelen requerir inteligencia humana, como el aprendizaje, la toma de decisiones, la resolución de problemas, la percepción y el lenguaje natural (Russell y Norvig, 2014). Turing abordó la cuestión central de la inteligencia artificial: “¿Pueden las máquinas pensar?” (Turing, 1950). Poco después fue John McCarthy quien acuñó el término “inteligencia artificial” en 1956 y contribuyó al desarrolló del lenguaje de programación Lisp, que para muchos ha sido la puerta de entrada en la IA (McCarthy et al., 2006). Él, junto con otros como Marvin Minsky (MIT), Lotfali A. Zadeh (Universidad de Berkeley, en California) o John Holland (Universidad de Michigan), han sido los pioneros (Zadeh, 2008). De sus manos han salido tendencias, modelos y algoritmos que han generado escuelas y sobre las que nosotros hemos podido construir sistemas que han supuesto verdaderos avances en campos como la medicina.
34
-
35
- Así aparecieron ramas de trabajo como la lógica simbólica, los sistemas expertos, las redes neuronales (Corchado et al., 2000), la lógica difusa, el procesamiento del lenguaje natural, los algoritmos genéticos, la visión por computadora, los sistemas multiagentes (González-Briones et al., 2018) o las máquinas sociales (Hendler & Mulvehill, 2016; Chamoso et al., 2019). Todas estas ramas se dividen en subramas y estas en otras, de forma que, hoy en día, el nivel de especialización es intenso.
36
-
37
- La mayor parte de los sistemas complejos se ven afectados por múltiples elementos, generan o están relacionados con múltiples fuentes de datos, evolucionan con el tiempo y, en la mayoría de los casos, existe cierto conocimiento experto (Pérez-Pons et al., 2023). En este sentido, parece claro que el uso combinado de sistemas simbólicos capaces de modelar el conocimiento junto con técnicas conexionistas que analicen datos a diferentes niveles o procedentes de diferentes fuentes puede ofrecer soluciones globales. No resulta difícil encontrar problemas de este tipo, por ejemplo, en el ámbito de la medicina, donde el modelado del conocimiento es tan importante como el análisis de los datos de los pacientes por sí solos. Un ejemplo de fusión de modelos fue la plataforma Gene-CBR para el análisis genético. Utilizaba, por un lado, el marco metodológico proporcionado con un sistema de razonamiento basado en casos junto con varias redes neuronales y sistemas difusos (Díaz et al., 2006; Hernandez-Nieves et al., 2021). Este modelo se construyó para facilitar el análisis del mieloma.
38
-
39
- La década de 1970/80 fue un período de gran avance para la inteligencia artificial y la informática distribuida (Janbi et al., 2022). Una época de grandes cambios, con el despegue de Internet, en un momento en el que el mundo estaba acercándose a un nuevo siglo y donde la atención del mundo de la informática estaba más centrada en el potencial de Internet que en el avance de la IA. Este hecho, junto con las limitaciones del hardware, el desinterés de la industria por la IA y la falta de ideas disruptivas contribuyó al comienzo de una etapa de paralización en este ámbito, lo que llamamos el “invierno de la IA”.
40
-
41
- Pero después de un invierno hay un verano y este llegó a primeros de siglo, con la aparición de lo que llamamos el aprendizaje profundo (deep learning) y las redes neuronales convolucionales (Convolutional Neural Networks, CNNs). Una gran idea que supuso un cambio radical en la forma de tratar la información. Estas redes utilizan técnicas de aprendizaje automático de forma un tanto distinta a como se había planteado en sus orígenes (Bengio, 2009; Pérez-Pons et al., 2021; Hernández et al., 2021). A diferencia de otros modelos, tienen múltiples capas ocultas que permiten extraer características y patrones de los datos de entrada de manera cada vez más compleja y abstracta (Parikh et al., 2022). Estamos hablando de un único algoritmo que ataca un problema desde diferentes perspectivas.
42
-
43
- Estos modelos suponen un antes y un después y harán que todos demos una vuelta de tuerca a nuestra forma de trabajar. Estamos hablando del comienzo de la quinta revolución industrial gracias a nuestra capacidad para crear sistemas mediante la convergencia de tecnologías digitales, físicas y biológicas con el uso de estos nuevos modelos de creación de conocimiento (Corchado, 2023). Si vivíamos en un mundo que avanzaba rápido, ahora tenemos que prepararnos para otro en aceleración continua. Aquellos que cojan este tren verán cómo sus oportunidades de negocio, de generación de valor y servicio aumentarán exponencialmente en los próximos años.
44
-
45
- El Deep Learning es una subcategoría del aprendizaje automático que se centra en algoritmos inspirados en la estructura y función del cerebro, llamados redes neuronales artificiales (Chan, et al., 2016; Kothadiya et al., 2022, Alizadehsani et al., 2023). Estas redes, especialmente cuando tienen muchas capas (profundas), han demostrado ser extremadamente efectivas en una variedad de tareas de IA. Los modelos generativos basados en aprendizaje profundo pueden aprender automáticamente a representar datos y generar nuevos que se asemejen a la distribución de los datos originales.
46
-
47
- Las CNNs son una clase especializada de redes neuronales diseñadas para procesar datos con una estructura similar a una cuadrícula, como una imagen. Son fundamentales en tareas de visión por computadora. En el contexto de la IA generativa, las CNNs se han adaptado para generar imágenes. Por ejemplo, las GANs (redes generativas antagónicas) a menudo utilizan CNNs en sus generadores y discriminadores para producir imágenes realistas.
48
-
49
- Las GANs, Introducidas por Ian Goodfellow y sus colaboradores en 2014, constan de dos redes neuronales, un generador y un discriminador, que se entrenan juntas (Goodfellow et al., 2014). El generador intenta producir datos (como imágenes), mientras que el discriminador intenta distinguir entre datos reales y datos generados. A medida que el entrenamiento avanza, el generador se vuelve cada vez mejor en la creación de datos que engañan al discriminador. Las CNNs a menudo se utilizan en la arquitectura de las GANs para tareas relacionadas con imágenes. Por otro lado, por ejemplo, los VAEs (autoencoders variacionales) son otro tipo de modelo generativo basado en redes neuronales (Wei & Mahmood, 2020). A diferencia de las GANs, los VAEs modelan explícitamente una distribución de probabilidad para los datos y utilizan técnicas de inferencia variacional para entrenar. Además, los modelos basados en píxeles (Su et al., (2021) son estructuras de IA generativa basadas en Deep Learning y generan imágenes píxel por píxel, utilizando redes neuronales recurrentes o CNNs.
50
-
51
- El aprendizaje profundo y, en particular, las redes convolucionales, han sido herramientas fundamentales en el desarrollo y éxito de muchos modelos de IA Generativa, especialmente aquellos centrados en la generación de imágenes. Estas técnicas han permitido avances significativos en la capacidad de los modelos para generar contenido que es indistinguible del contenido real en muchos casos.
52
-
53
- Como ejemplo, ChatGPT ha entrado en nuestras vidas para cambiarlas y casi no nos hemos enterado. Algunos solo han oído hablar de él, otros lo han utilizado en alguna ocasión y muchos otros ya estamos haciendo proyectos y generando valor con esta tecnología. La capacidad que esta herramienta tiene para redactar texto, como este que están leyendo, de generar algoritmos, de sintetizar y generar propuestas razonadas es extraordinaria, pero esto solo es la punta del iceberg. Ya se está utilizando para crear sistemas de atención al cliente, de análisis de datos médicos, de ayuda toma de decisiones y de diagnóstico, entre otros.
54
-
55
- Pero ChatGPT no deja de ser el primero de los sistemas de este tipo que se ha abierto un hueco en el mercado. Hay muchos otros como modelos y herramientas: BARD, XLNet, T5, RoBERTa, Bedrock, Wu Dao, Nemo, LLAMA 2, etc. Tecnología como esta permitirá el desarrollo de sistemas de diagnóstico mucho más precisos basándose en evidencias e historiales clínicos, el uso más generalizado de la telemedicina, de sistemas de control de pacientes crónicos en sus domicilios, etc. En esta dirección, y a diferentes niveles, están desarrollándose algoritmos de gran interés para el ámbito médico como, por ejemplo, Transformers, Autoencoders, modelos generativos basados en energía profunda, modelos de inferencia variacional de prototipos, sistemas de aprendizaje por refuerzo con inferencia causal, por nombrar algunos. La IA tiene el potencial de cambiar fundamentalmente la forma en que vivimos y trabajamos, pero también plantea importantes desafíos éticos en términos de privacidad y seguridad que hay que resolver.
56
-
57
- 1.3 El paso de la IA tradicional a la IA generativa
58
-
59
- La historia de la inteligencia artificial (IA) es rica y fascinante y, como todo, puede tener diferentes interpretaciones y elementos claves. Aquí se muestra un resumen de algunos elementos trascendentales que permiten analizar la evolución de este campo de forma rápida desde la aparición de la primera neurona artificial hasta la construcción del primer transformador y la popularización de ChatGPT:
60
-
61
- 1. Neurona artificial (1943): Warren McCulloch y Walter Pitts publicaron "A Logical Calculus of the Ideas Immanent in Nervous Activity", donde presentaron un modelo simplificado de una neurona biológica, conocido como la neurona de McCulloch-Pitts. Este modelo se considera la primera neurona artificial y es la base de las redes neuronales artificiales (McCulloch & Pitts, 1943).
62
- 2. Perceptrón (1957-1958): Frank Rosenblatt introdujo el perceptrón, el algoritmo más simple de aprendizaje supervisado para redes neuronales de una sola capa. Aunque era limitado en su capacidad (por ejemplo, no podía resolver el problema XOR), sentó las bases para el desarrollo futuro de las redes neuronales (Rosenblatt, 1958).
63
- 3. Invierno de la IA (1970s-1980s): Las limitaciones de los modelos iniciales y la falta de capacidad computacional llevaron a una disminución en el entusiasmo y la financiación para la investigación en IA. Durante este período, las redes neuronales no eran el enfoque principal en la comunidad de IA (Moor, 2006).
64
- 4. Retropropagación (1986): Rumelhart, Hinton y Williams introdujeron el algoritmo de retropropagación para entrenar redes neuronales multicapa (Rumelhart et al., 1986). Este algoritmo comenzó a reavivar el interés en las redes neuronales. Las redes recurrentes, que utilizan retropropagación, prestan atención a cada palabra de forma individual y secuencial. Estas redes funcionan de forma secuencial. En ellas, el orden en el que aparecen cada una de las palabras se tiene en cuenta en el entrenamiento. En el contexto de las redes recurrentes que aparecieron a finales de los años 80 y principios de los 90 se desarrollaron las RNNs y se crearon para procesar secuencias de datos. Para entrenar estas redes, se utiliza la técnica de retropropagación a través del tiempo (BPTT). Las RNNs pueden mantener un "estado" a lo largo del tiempo, lo que las hace adecuadas para tareas como la predicción de series temporales y el procesamiento del lenguaje natural. Sin embargo, las RNNs tradicionales enfrentaban problemas como el desvanecimiento y explosión del gradiente. Las redes recurrentes pierden el contexto a medida que van avanzando en la evaluación/generación del párrafo, lo que supone un problema si el texto es largo. Este problema quedó resuelto con otras redes con restropropagación, las Long Short-Term Memory (LSTM), introducidas por Hochreiter y Schmidhuber (1997), una variante especializada de RNNs diseñada para abordar los problemas de desvanecimiento del gradiente. Las LSTMs pueden aprender dependencias a largo plazo y han sido fundamentales en muchos avances en el procesamiento del lenguaje natural y otras tareas secuenciales hasta la llegada de los transformadores. Estas redes incluyen, en cada una de las etapas de aprendizaje, operaciones matemáticas que evitan el olvidar lo aprendido al comienzo del párrafo. No obstante, estas redes tienen otros problemas relacionado con la imposibilidad de paralelizar su entrenamiento, con lo que la creación de grandes modelos se hace prácticamente inviable. En este tipo de redes, todo el entrenamiento es secuencial.
65
-
66
- 5. Deep Learning y redes neuronales convolucionales (Convolucional Neural Networks, CNN, 2012): En 2012, Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton presentaron una red neuronal convolucional que ganó por un amplio margen el desafío de clasificación de imágenes ImageNet (Krizhevsky et al., 2012). Este evento marcó el comienzo de la era del "Deep Learning" con un renovado interés en las redes neuronales que comenzaron a popularizarse en el 2006, año en el que comenzó el fin del “Invierno de la IA”. Estas redes son especialmente adecuadas para la clasificación y el tratamiento de imágenes, están estructuradas en capas y se organizan en tres componentes principales: capas convolucionales, capas de activación y capas de agrupación. Las capas convolucionales son responsables de extraer características importantes de las imágenes mediante filtros o "kernels". Los filtros se deslizan sobre la imagen, realizando operaciones matemáticas para detectar bordes, formas o patrones específicos. En las capas de activación se aplican funciones de activación (como ReLU) para agregar no linealidad y aumentar la capacidad de la red para aprender relaciones complejas. Finalmente, las capas de agrupación reducen el tamaño de la representación de la imagen, disminuyendo la cantidad de parámetros y haciendo que la red sea más eficiente en el procesamiento. A medida que la información pasa por estas capas, la CNN aprende a reconocer características más abstractas y complejas, permitiendo la identificación de objetos, personas o cualquier cosa que se tenga que identificar. El trabajo realizado en este campo para la construcción de sistemas de procesamiento masivo de información e impulsado el desarrollo de proyectos paralelos ha dado lugar a los Transformers que se utilizan en la actualidad (Hernández et al., 2012).
67
-
68
- 6. Transformadores (2017): Vaswani et al. introdujeron la arquitectura del transformador en el paper "Attention Is All You Need". Esta arquitectura, basada en mecanismos de atención, demostró ser altamente eficaz para tareas de procesamiento del lenguaje natural y se convirtió en la base de muchos modelos posteriores, incluido GPT. La ventaja de estas redes sobre los modelos de retropropagación como los LSTM y el Deep Learning radica en su capacidad para paralelizar el aprendizaje. A diferencia de las redes neuronales recurrentes (RNNs) o las redes neuronales convolucionales (CNNs), los transformadores no dependen de una estructura secuencial o espacial fija de los datos, lo que les permite procesar información de manera paralela y capturar dependencias a largo plazo en los datos. En este sentido, hay que destacar el concepto de “Word Enbeding” o incrustaciones de palabras, que son la base del aprendizaje de los Transformers. Se trata de una técnica dentro del procesamiento de lenguaje natural para vectorizar texto. Los Transformers permiten analizar todas las palabras de un texto de forma paralela y, de esta forma, el procesamiento y creación de la red es más rápida. Dicho esto, hay que saber que estas redes requieren ingentes cantidades de datos y hardware muy potente, como ya se ha comentado. Por ejemplo, GPT-3 fue creado con 175.000 millones de parámetros y 45 TB de Datos, y GPT-4 con 1000.0000.0000 millones de parámetros y un número mayor de TB, aunque desconocido.
69
-
70
- 7. GPT y ChatGPT (2018-2020): OpenAI lanzó la serie de modelos GPT (Generative Pre-trained Transformer). GPT-2, lanzado en 2019, demostró una capacidad impresionante para generar texto coherente y realista. GPT-3, lanzado en 2020, amplió aún más estas capacidades y llevó a la popularización de aplicaciones basadas en chat, como ChatGPT (Abdullah et al., 2022). Este producto ha tenido un impresionante poder de penetración, habiendo alcanzado los 100 millones de usuarios en 2 meses, cuando otras plataformas como Instagram han tardado 26 meses en alcanzar el mismo número de usuarios (Facebook 54 meses o Twitter 65 meses).
71
-
72
- Estos siete elementos pueden verse como una posible lista cronológica de hallazgos y hechos que reflejan la evolución de la IA, desde sus orígenes hasta la aparición de lo que hoy en día conocemos como la IA generativa.