2999a commited on
Commit
1535d1e
·
verified ·
1 Parent(s): a823bfc

Upload folder from C CLI

Browse files

Uploaded via hf-downloader C client

Files changed (37) hide show
  1. .gitattributes +18 -0
  2. 1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.mp4 +3 -0
  3. 1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.sub.vtt +77 -0
  4. 10-Ventana de contexto y modelo de atención en LLMs.mp4 +3 -0
  5. 10-Ventana de contexto y modelo de atención en LLMs.sub.vtt +389 -0
  6. 11-Técnicas de grounding para consultas legales con LLMs.mp4 +3 -0
  7. 11-Técnicas de grounding para consultas legales con LLMs.sub.vtt +575 -0
  8. 12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.mp4 +3 -0
  9. 12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.sub.vtt +233 -0
  10. 14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.mp4 +3 -0
  11. 14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.sub.vtt +389 -0
  12. 15-Prompt chaining dividir tareas complejas en pasos independientes.mp4 +3 -0
  13. 15-Prompt chaining dividir tareas complejas en pasos independientes.sub.vtt +362 -0
  14. 16-Creación de agentes personalizados con IA para empresas.mp4 +3 -0
  15. 16-Creación de agentes personalizados con IA para empresas.sub.vtt +806 -0
  16. 17-Configuración de temperatura y Top P en Google AI Studio.mp4 +3 -0
  17. 17-Configuración de temperatura y Top P en Google AI Studio.sub.vtt +413 -0
  18. 19-Creación de prompts detallados para generación de imágenes con IA.mp4 +3 -0
  19. 19-Creación de prompts detallados para generación de imágenes con IA.sub.vtt +266 -0
  20. 2-Creación de prompts efectivos para análisis de documentos con IA.mp4 +3 -0
  21. 2-Creación de prompts efectivos para análisis de documentos con IA.sub.vtt +590 -0
  22. 20-Análisis de datos de e commerce con ChatGPT.mp4 +3 -0
  23. 20-Análisis de datos de e commerce con ChatGPT.sub.vtt +344 -0
  24. 21-Evaluación y validación de respuestas de LLM con criterios precisos.mp4 +3 -0
  25. 21-Evaluación y validación de respuestas de LLM con criterios precisos.sub.vtt +383 -0
  26. 22-Plantillas de prompts para correos de seguimiento empresarial.mp4 +3 -0
  27. 22-Plantillas de prompts para correos de seguimiento empresarial.sub.vtt +167 -0
  28. 3-Cómo interpretan los LLM el significado de las palabras.mp4 +3 -0
  29. 3-Cómo interpretan los LLM el significado de las palabras.sub.vtt +374 -0
  30. 4-Cómo definir roles efectivos en prompts de IA.mp4 +3 -0
  31. 4-Cómo definir roles efectivos en prompts de IA.sub.vtt +251 -0
  32. 6-Comparación práctica de ChatGPT, Claude, Gemini y Microsoft Copilot.mp4 +3 -0
  33. 6-Comparación práctica de ChatGPT, Claude, Gemini y Microsoft Copilot.sub.vtt +422 -0
  34. 7-Técnicas zero shot y few shot para prompts efectivos.mp4 +3 -0
  35. 7-Técnicas zero shot y few shot para prompts efectivos.sub.vtt +386 -0
  36. 8-Estructura de prompts con etiquetas XML para IA.mp4 +3 -0
  37. 8-Estructura de prompts con etiquetas XML para IA.sub.vtt +641 -0
.gitattributes CHANGED
@@ -57,3 +57,21 @@ Chobits[[:space:]]-[[:space:]]11[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv fil
57
  Chobits[[:space:]]-[[:space:]]12[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
58
  Chobits[[:space:]]-[[:space:]]13[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
59
  Chobits[[:space:]]-[[:space:]]14[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
57
  Chobits[[:space:]]-[[:space:]]12[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
58
  Chobits[[:space:]]-[[:space:]]13[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
59
  Chobits[[:space:]]-[[:space:]]14[[:space:]]\[BD-1080p\]\[Cast+Jap+Subs\].mkv filter=lfs diff=lfs merge=lfs -text
60
+ 10-Ventana[[:space:]]de[[:space:]]contexto[[:space:]]y[[:space:]]modelo[[:space:]]de[[:space:]]atención[[:space:]]en[[:space:]]LLMs.mp4 filter=lfs diff=lfs merge=lfs -text
61
+ 1-Cómo[[:space:]]estructurar[[:space:]]prompts[[:space:]]efectivos[[:space:]]con[[:space:]]rol,[[:space:]]enfoque,[[:space:]]límites[[:space:]]y[[:space:]]contexto.mp4 filter=lfs diff=lfs merge=lfs -text
62
+ 11-Técnicas[[:space:]]de[[:space:]]grounding[[:space:]]para[[:space:]]consultas[[:space:]]legales[[:space:]]con[[:space:]]LLMs.mp4 filter=lfs diff=lfs merge=lfs -text
63
+ 17-Configuración[[:space:]]de[[:space:]]temperatura[[:space:]]y[[:space:]]Top[[:space:]]P[[:space:]]en[[:space:]]Google[[:space:]]AI[[:space:]]Studio.mp4 filter=lfs diff=lfs merge=lfs -text
64
+ 16-Creación[[:space:]]de[[:space:]]agentes[[:space:]]personalizados[[:space:]]con[[:space:]]IA[[:space:]]para[[:space:]]empresas.mp4 filter=lfs diff=lfs merge=lfs -text
65
+ 15-Prompt[[:space:]]chaining[[:space:]]dividir[[:space:]]tareas[[:space:]]complejas[[:space:]]en[[:space:]]pasos[[:space:]]independientes.mp4 filter=lfs diff=lfs merge=lfs -text
66
+ 14-Modelos[[:space:]]de[[:space:]]razonamiento[[:space:]]de[[:space:]]ChatGPT[[:space:]]y[[:space:]]cadenas[[:space:]]de[[:space:]]pensamiento.mp4 filter=lfs diff=lfs merge=lfs -text
67
+ 19-Creación[[:space:]]de[[:space:]]prompts[[:space:]]detallados[[:space:]]para[[:space:]]generación[[:space:]]de[[:space:]]imágenes[[:space:]]con[[:space:]]IA.mp4 filter=lfs diff=lfs merge=lfs -text
68
+ 12-Cadena[[:space:]]de[[:space:]]pensamiento[[:space:]]y[[:space:]]verificación[[:space:]]con[[:space:]]múltiples[[:space:]]métodos[[:space:]]en[[:space:]]LLMs.mp4 filter=lfs diff=lfs merge=lfs -text
69
+ 2-Creación[[:space:]]de[[:space:]]prompts[[:space:]]efectivos[[:space:]]para[[:space:]]análisis[[:space:]]de[[:space:]]documentos[[:space:]]con[[:space:]]IA.mp4 filter=lfs diff=lfs merge=lfs -text
70
+ 20-Análisis[[:space:]]de[[:space:]]datos[[:space:]]de[[:space:]]e[[:space:]]commerce[[:space:]]con[[:space:]]ChatGPT.mp4 filter=lfs diff=lfs merge=lfs -text
71
+ 21-Evaluación[[:space:]]y[[:space:]]validación[[:space:]]de[[:space:]]respuestas[[:space:]]de[[:space:]]LLM[[:space:]]con[[:space:]]criterios[[:space:]]precisos.mp4 filter=lfs diff=lfs merge=lfs -text
72
+ 22-Plantillas[[:space:]]de[[:space:]]prompts[[:space:]]para[[:space:]]correos[[:space:]]de[[:space:]]seguimiento[[:space:]]empresarial.mp4 filter=lfs diff=lfs merge=lfs -text
73
+ 3-Cómo[[:space:]]interpretan[[:space:]]los[[:space:]]LLM[[:space:]]el[[:space:]]significado[[:space:]]de[[:space:]]las[[:space:]]palabras.mp4 filter=lfs diff=lfs merge=lfs -text
74
+ 4-Cómo[[:space:]]definir[[:space:]]roles[[:space:]]efectivos[[:space:]]en[[:space:]]prompts[[:space:]]de[[:space:]]IA.mp4 filter=lfs diff=lfs merge=lfs -text
75
+ 6-Comparación[[:space:]]práctica[[:space:]]de[[:space:]]ChatGPT,[[:space:]]Claude,[[:space:]]Gemini[[:space:]]y[[:space:]]Microsoft[[:space:]]Copilot.mp4 filter=lfs diff=lfs merge=lfs -text
76
+ 7-Técnicas[[:space:]]zero[[:space:]]shot[[:space:]]y[[:space:]]few[[:space:]]shot[[:space:]]para[[:space:]]prompts[[:space:]]efectivos.mp4 filter=lfs diff=lfs merge=lfs -text
77
+ 8-Estructura[[:space:]]de[[:space:]]prompts[[:space:]]con[[:space:]]etiquetas[[:space:]]XML[[:space:]]para[[:space:]]IA.mp4 filter=lfs diff=lfs merge=lfs -text
1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:21b9513d8021d1a4f81f486bc96754a8be0f6d3f14b2b70f9d841bef18b5c10f
3
+ size 62102000
1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.sub.vtt ADDED
@@ -0,0 +1,77 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.379 --> 00:00:03.659
4
+ Si la inteligencia artificial no te entiende, es porque no te estás logrando
5
+
6
+ 00:00:03.659 --> 00:00:07.639
7
+ comunicar bien. Abre ChatGPT, mira el último mensaje que enviaste y lo
8
+
9
+ 00:00:07.639 --> 00:00:12.979
10
+ vas a reescribir en la siguiente estructura: rol, enfoque, memoria y límites. Aquí
11
+
12
+ 00:00:12.979 --> 00:00:16.500
13
+ te va un ejemplo: «Actúa como especialista en marketing en B2B». Ese
14
+
15
+ 00:00:16.500 --> 00:00:20.099
16
+ es el rol. «Vas a crear una publicación en LinkedIn acerca de mi
17
+
18
+ 00:00:20.100 --> 00:00:24.099
19
+ producto». Ese es el enfoque. «La publicación no puede tener más de
20
+
21
+ 00:00:24.100 --> 00:00:28.760
22
+ ciento cincuenta caracteres y debe usar un lenguaje simple, concreto y coloquial». Esos
23
+
24
+ 00:00:28.760 --> 00:00:32.360
25
+ son los límites. Y, por último, tenemos el contexto, donde le voy
26
+
27
+ 00:00:32.360 --> 00:00:35.540
28
+ a explicar de qué trata mi producto. «Mi producto es un software as
29
+
30
+ 00:00:35.540 --> 00:00:38.840
31
+ a service que automatiza el proceso contable de tu empresa». Un poco
32
+
33
+ 00:00:38.840 --> 00:00:42.819
34
+ más complejo y difícil de pensar, y seguramente que lo último que le
35
+
36
+ 00:00:42.819 --> 00:00:47.360
37
+ dijiste a ChatGPT no tenía toda esa información. Complémntala. Con esto pasarás
38
+
39
+ 00:00:47.360 --> 00:00:52.040
40
+ de resultados genéricos a respuestas acertadas y completas. Al terminar el curso, podrás
41
+
42
+ 00:00:52.040 --> 00:00:56.819
43
+ pasar de procesos a instrucciones claras que las entienda cualquier persona, pero
44
+
45
+ 00:00:56.819 --> 00:01:00.399
46
+ más importante, que lo entienda un LLM. Sabrás elegir el modelo y el
47
+
48
+ 00:01:00.399 --> 00:01:04.998
49
+ enfoque correcto dependiendo de la tarea que quieres solucionar. Podrás descomponer problemas
50
+
51
+ 00:01:05.000 --> 00:01:08.659
52
+ complejos en cosas más pequeñas y definir cuál es el prompt o la
53
+
54
+ 00:01:08.659 --> 00:01:12.419
55
+ técnica de prompting correcta para poder llegar al resultado que esperas. Podrás
56
+
57
+ 00:01:12.419 --> 00:01:18.279
58
+ calibrar entre creatividad y precisión, sabiendo si estás dando demasiada información al modelo
59
+
60
+ 00:01:18.279 --> 00:01:21.859
61
+ o si tienes la información necesaria para llegar al resultado que esperas
62
+
63
+ 00:01:21.860 --> 00:01:26.739
64
+ sin tener ninguna alucinación. Este curso no es de código. Aprenderás los fundamentos
65
+
66
+ 00:01:26.739 --> 00:01:29.279
67
+ de crear un buen prompt. Y la verdad es que la inteligencia
68
+
69
+ 00:01:29.279 --> 00:01:34.479
70
+ artificial cambia cada semana, pero con estos fundamentos aprenderás a navegar todos esos
71
+
72
+ 00:01:34.479 --> 00:01:37.979
73
+ cambios. Yo soy Juan Pablo Rojas, chief product officer de Platzi, y
74
+
75
+ 00:01:37.979 --> 00:01:40.220
76
+ te veo en la siguiente clase.
77
+
10-Ventana de contexto y modelo de atención en LLMs.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4edb88139aa7130fd29d571bbd66eeb505a92460b4ddcbcb38e75146f45baba4
3
+ size 330081450
10-Ventana de contexto y modelo de atención en LLMs.sub.vtt ADDED
@@ -0,0 +1,389 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.040 --> 00:00:04.160
4
+ Estás leyendo un informe de cincuenta páginas acerca del performance de la empresa
5
+
6
+ 00:00:04.160 --> 00:00:08.600
7
+ de los últimos dos años y ya vas por la página cuarenta,
8
+
9
+ 00:00:08.600 --> 00:00:12.800
10
+ pero te cuesta recordar cuáles fueron las decisiones que se tomaron en enero
11
+
12
+ 00:00:12.800 --> 00:00:16.700
13
+ de 2024. Era la información que estaba al inicio del reporte, la
14
+
15
+ 00:00:16.700 --> 00:00:21.400
16
+ leíste, la entendiste, pero es que ya vas en la página cuarenta. Este,
17
+
18
+ 00:00:21.400 --> 00:00:23.800
19
+ este problema que nos pasa a nosotros también le pasa a la
20
+
21
+ 00:00:23.800 --> 00:00:27.840
22
+ inteligencia artificial cuando está teniendo que lidiar con contextos muy largos, con mucha
23
+
24
+ 00:00:27.840 --> 00:00:31.560
25
+ información. Y ese problema está relacionado a un concepto llamado la ventana
26
+
27
+ 00:00:31.560 --> 00:00:35.460
28
+ de contexto. La ventana de contexto en un LLM determina cuál es la
29
+
30
+ 00:00:35.460 --> 00:00:40.300
31
+ cantidad de información que tiene capacidad de procesar y esto está acompañado
32
+
33
+ 00:00:40.300 --> 00:00:43.280
34
+ con algo que ya hemos mencionado en clases pasadas, pero quiero explicar más
35
+
36
+ 00:00:43.280 --> 00:00:47.140
37
+ a detalle, que es el modelo de atención. Entonces, recordemos, hablábamos de
38
+
39
+ 00:00:47.140 --> 00:00:52.010
40
+ que la diferencia entre el teclado predictivo de WhatsApp y un LLM es
41
+
42
+ 00:00:52.010 --> 00:00:54.480
43
+ que el teclado predictivo de WhatsApp solo va a buscar cuál es
44
+
45
+ 00:00:54.480 --> 00:00:58.080
46
+ la palabra más probable que sigue después de que tú pongas «Hola», y
47
+
48
+ 00:00:58.080 --> 00:01:00.760
49
+ no va a tener en cuenta ni la conversación que estás teniendo
50
+
51
+ 00:01:00.760 --> 00:01:03.620
52
+ ni la intención del mensaje que vas a escribir. Es por eso que
53
+
54
+ 00:01:03.620 --> 00:01:06.700
55
+ ese teclado predictivo no es capaz de escribir un mensaje completo o
56
+
57
+ 00:01:06.700 --> 00:01:11.400
58
+ redactar un email. Pero un LLM sí tiene esa capacidad gracias al modelo
59
+
60
+ 00:01:11.400 --> 00:01:14.220
61
+ de atención. Y el modelo de atención lo que hace es que
62
+
63
+ 00:01:14.220 --> 00:01:17.260
64
+ le va a dar importancia a diferentes palabras que vaya a encontrar dentro
65
+
66
+ 00:01:17.260 --> 00:01:20.500
67
+ del prompt para poder entender cuál es la intención y el significado
68
+
69
+ 00:01:20.500 --> 00:01:24.330
70
+ de lo que quieres decir. Eso quiere decir que esta ventana de contexto
71
+
72
+ 00:01:24.330 --> 00:01:28.940
73
+ importa muchísimo, porque el prompt, cuando iniciamos un nuevo chat, es el
74
+
75
+ 00:01:28.940 --> 00:01:33.960
76
+ mensaje que nosotros vamos a enviar. Lo enviamos, el LLM nos responde y
77
+
78
+ 00:01:33.960 --> 00:01:37.660
79
+ luego queremos enviar un nuevo mensaje. Uno pensaría que el nuevo mensaje
80
+
81
+ 00:01:37.660 --> 00:01:42.640
82
+ es un prompt individual, pero no. Toda la conversación que estamos teniendo con
83
+
84
+ 00:01:42.640 --> 00:01:46.580
85
+ el LLM es parte del prompt, y eso es la ventana de
86
+
87
+ 00:01:46.580 --> 00:01:50.500
88
+ contexto. Es toda la información que estamos pidiéndole procesar y que solamente va
89
+
90
+ 00:01:50.500 --> 00:01:54.960
91
+ aumentando conforme vamos incrementando la longitud del chat. Y esa no es
92
+
93
+ 00:01:54.960 --> 00:01:58.300
94
+ la única forma de aumentar la ventana de contexto. Cada vez que nosotros
95
+
96
+ 00:01:58.300 --> 00:02:01.100
97
+ subimos un archivo, como lo hicimos en las primeras clases con el
98
+
99
+ 00:02:01.100 --> 00:02:05.780
100
+ reporte de McKinsey, eso también entra dentro de la ventana de contexto. Esto
101
+
102
+ 00:02:05.780 --> 00:02:09.459
103
+ quiere decir que es muy fácil que la ventana de contexto crezca
104
+
105
+ 00:02:09.520 --> 00:02:13.040
106
+ por continuar un chat hasta que ya no dé más y no te
107
+
108
+ 00:02:13.040 --> 00:02:17.140
109
+ responda más, o por subir muchos documentos, con muchas páginas, con mucha
110
+
111
+ 00:02:17.140 --> 00:02:22.520
112
+ información que debe ser procesada para resolver o responder el siguiente mensaje que
113
+
114
+ 00:02:22.520 --> 00:02:26.180
115
+ le acabas de enviar al LLM. Esta ventana de contexto se mide
116
+
117
+ 00:02:26.180 --> 00:02:31.340
118
+ por algo llamado tokens. Y los tokens son una interpretación del LLM de
119
+
120
+ 00:02:31.340 --> 00:02:35.700
121
+ las palabras o de la-- del prompt completo que nosotros estamos enviando.
122
+
123
+ 00:02:35.700 --> 00:02:39.240
124
+ Y digo interpretación porque no es como que el LLM va a cortar
125
+
126
+ 00:02:39.240 --> 00:02:41.980
127
+ exactamente en todos los espacios y va a decir: «Ah, pues este
128
+
129
+ 00:02:41.980 --> 00:02:46.100
130
+ prompt tiene diez palabras, entonces son diez tokens». La verdad es que no.
131
+
132
+ 00:02:46.100 --> 00:02:50.350
133
+ Funciona más como un cocinero que sabe exactamente con cada ingrediente cómo
134
+
135
+ 00:02:50.350 --> 00:02:53.620
136
+ cortarlo y dónde cortarlo y de qué manera cortarlo para poder preparar una
137
+
138
+ 00:02:53.620 --> 00:02:57.720
139
+ receta. En este caso, un LLM en su entrenamiento agarra todas las
140
+
141
+ 00:02:57.720 --> 00:03:01.640
142
+ sutilezas de los diferentes lenguajes con los, con los que es entrenado para
143
+
144
+ 00:03:01.640 --> 00:03:04.940
145
+ decidir dónde hacer los cortes, con tal de agarrar las sutilezas que
146
+
147
+ 00:03:04.940 --> 00:03:09.040
148
+ importan. Por ejemplo, en español tenemos el signo de interrogación de apertura y
149
+
150
+ 00:03:09.040 --> 00:03:12.740
151
+ el signo de interrogación de cierre, cosa que en inglés solo existe
152
+
153
+ 00:03:12.740 --> 00:03:16.880
154
+ el signo de interrogación de cierre. En español, esto nos permite saber dónde
155
+
156
+ 00:03:16.880 --> 00:03:20.080
157
+ inicia la pregunta y dónde termina, y esto lo va a tomar
158
+
159
+ 00:03:20.080 --> 00:03:23.880
160
+ como un token. Con esta explicación lo que debes saber es que las
161
+
162
+ 00:03:23.880 --> 00:03:28.240
163
+ ventanas de contexto tienen un límite de tokens. Por ejemplo, ChatGPT tiene
164
+
165
+ 00:03:28.240 --> 00:03:33.020
166
+ una ventana de contexto de ciento veintiocho mil tokens, que aproximadamente tienden a
167
+
168
+ 00:03:33.020 --> 00:03:37.079
169
+ ser trescientas páginas de un libro. Y esto no quiere decir que
170
+
171
+ 00:03:37.080 --> 00:03:41.340
172
+ no puedas subir un libro de quinientas páginas a ChatGPT e interactuar con
173
+
174
+ 00:03:41.340 --> 00:03:45.140
175
+ él, sino que esto nos enfrenta a un problema llamado en inteligencia
176
+
177
+ 00:03:45.140 --> 00:03:49.100
178
+ artificial la aguja en un pajarro. Es decir, tiene mucha información y tiene
179
+
180
+ 00:03:49.100 --> 00:03:53.359
181
+ que usar otros métodos para obtener esa información y encontrar justo el
182
+
183
+ 00:03:53.360 --> 00:03:56.560
184
+ dato que nos importa de la pregunta que estamos haciendo. Esto va a
185
+
186
+ 00:03:56.560 --> 00:04:01.800
187
+ incrementar la probabilidad de que hayan alucinaciones o que la inteligencia artificial
188
+
189
+ 00:04:01.800 --> 00:04:06.500
190
+ olvide o pierda la atención de ciertos detalles que sí le estamos diciendo,
191
+
192
+ 00:04:06.500 --> 00:04:10.520
193
+ pero que simplemente por la cantidad de información no está logrando capturar.
194
+
195
+ 00:04:10.520 --> 00:04:13.460
196
+ En la siguiente clase vamos a hacer un ejercicio con Gemini. ¿Por qué
197
+
198
+ 00:04:13.460 --> 00:04:16.940
199
+ escogimos Gemini? Porque Gemini es el que tiene la ventana de contexto
200
+
201
+ 00:04:16.940 --> 00:04:20.480
202
+ más grande en este momento. Estamos hablando de un millón de tokens, que
203
+
204
+ 00:04:20.480 --> 00:04:25.760
205
+ son más de ciento veinte mil páginas. Eso aliviana el problema porque
206
+
207
+ 00:04:25.760 --> 00:04:29.740
208
+ va a poder indexar un libro de trescientas páginas sin ningún problema y
209
+
210
+ 00:04:29.740 --> 00:04:34.320
211
+ poder agregar cualquier prompt y cualquier conversación, porque nuestra ventana de contexto
212
+
213
+ 00:04:34.320 --> 00:04:38.440
214
+ es mucho más amplia que eso. Pero acá hay un truco. Todos los
215
+
216
+ 00:04:38.440 --> 00:04:42.500
217
+ modelos grandes de lenguaje que tienen una ventana de contexto tan grande,
218
+
219
+ 00:04:42.500 --> 00:04:46.960
220
+ son capaces de analizar toda esa información, pero entran en un nuevo problema,
221
+
222
+ 00:04:46.960 --> 00:04:50.220
223
+ y es que conforme va aumentando la ventana de contexto después de
224
+
225
+ 00:04:50.220 --> 00:04:54.920
226
+ ciento veintiocho mil tokens, la eficiencia del modelo empieza a degradarse. ¿Esto qué
227
+
228
+ 00:04:54.920 --> 00:04:58.500
229
+ quiere decir? Que seguimos teniendo el problema en donde es capaz de
230
+
231
+ 00:04:58.500 --> 00:05:02.900
232
+ olvidar o alucinar información acerca del documento que vamos a analizar. Además de
233
+
234
+ 00:05:02.900 --> 00:05:06.120
235
+ alucinar u olvidar información, lo que puede empezar a pasar también es
236
+
237
+ 00:05:06.120 --> 00:05:09.740
238
+ que se confunda entre las tareas que le estás dando. Entonces, tú puedes
239
+
240
+ 00:05:09.740 --> 00:05:13.360
241
+ coger un mismo chat de, de ChatGPT, de Gemini o de Claude
242
+
243
+ 00:05:13.360 --> 00:05:18.120
244
+ y puedes pedirle que actúe diferentes roles, puedes seguir combinando tareas dentro del
245
+
246
+ 00:05:18.120 --> 00:05:21.380
247
+ mismo chat, pero hay una probabilidad de que el modelo de atención
248
+
249
+ 00:05:21.380 --> 00:05:25.560
250
+ empiece a confundirse. Primero le dijiste que actuara como un researcher e hiciera
251
+
252
+ 00:05:25.560 --> 00:05:29.860
253
+ una investigación sobre el calentamiento global, y luego le dijiste que hiciera
254
+
255
+ 00:05:29.860 --> 00:05:34.100
256
+ el labor de un social media manager para hacer contenido en redes sociales.
257
+
258
+ 00:05:34.100 --> 00:05:37.039
259
+ Es probable que en ese cambio de rol y que la ventana
260
+
261
+ 00:05:37.040 --> 00:05:41.700
262
+ de contexto por ir incrementando, empiece a equivocarse y no haga tan bien
263
+
264
+ 00:05:41.700 --> 00:05:46.440
265
+ el trabajo como social media manager, porque sigue pensando que debe actuar
266
+
267
+ 00:05:46.440 --> 00:05:50.720
268
+ como researcher que está investigando sobre el cambio climático. O de plano, el
269
+
270
+ 00:05:50.720 --> 00:05:54.360
271
+ tercer error que podemos identificar es que empieza a olvidar las instrucciones.
272
+
273
+ 00:05:54.360 --> 00:05:58.380
274
+ Es decir, le dijimos que me diera resúmenes de quinientas palabras que fueran
275
+
276
+ 00:05:58.380 --> 00:06:02.420
277
+ pragmáticos, concisos, que fueran accionables, y de repente se vuelve a poner
278
+
279
+ 00:06:02.420 --> 00:06:07.480
280
+ poético, se vuelve a poner a decirme cosas larguísimas y pareciera que se
281
+
282
+ 00:06:07.480 --> 00:06:11.452
283
+ le están olvidando las cosas.[Clics]. Hay formas de mitigar esto. Lo
284
+
285
+ 00:06:11.452 --> 00:06:14.952
286
+ primero es que el modelo siempre va a dar más atención a lo
287
+
288
+ 00:06:14.952 --> 00:06:18.572
289
+ último que está en el prompt. Entonces, si se está alargando mucho
290
+
291
+ 00:06:18.572 --> 00:06:22.872
292
+ tu chat dentro de ChatGPT, Gemini o Claude, es importante que le recuerdes
293
+
294
+ 00:06:22.872 --> 00:06:26.532
295
+ los factores importantes que quieres que tenga en cuenta para resolver la
296
+
297
+ 00:06:26.532 --> 00:06:30.072
298
+ tarea que le vas a poner ahora. Esto lo que hace es poner
299
+
300
+ 00:06:30.072 --> 00:06:33.052
301
+ esa información de últimas en la ventana de contexto y, por ende,
302
+
303
+ 00:06:33.052 --> 00:06:36.872
304
+ el modelo de atención le va a dar más prioridad. Lo segundo es
305
+
306
+ 00:06:36.872 --> 00:06:41.132
307
+ que si significa algo en, en nuestro idioma, significa algo para el
308
+
309
+ 00:06:41.132 --> 00:06:46.572
310
+ LLM. Entonces, el uso de mayúsculas, el repetir la información múltiples veces, el
311
+
312
+ 00:06:46.572 --> 00:06:49.832
313
+ uso de signos de exclamación, también van a optimizar el modelo de
314
+
315
+ 00:06:49.832 --> 00:06:54.532
316
+ atención para que tenga más cuidado con las instrucciones que le estamos repitiendo
317
+
318
+ 00:06:54.532 --> 00:06:58.372
319
+ o que estamos usando este tipo de técnicas que significan algo en
320
+
321
+ 00:06:58.372 --> 00:07:03.912
322
+ nuestro lenguaje y van a significar algo para el LLM. Y por último,
323
+
324
+ 00:07:03.912 --> 00:07:08.052
325
+ es que hagas preguntas o identifiques contradicciones. Si le pediste que te
326
+
327
+ 00:07:08.052 --> 00:07:11.892
328
+ diera un reporte, volviendo al reporte de los últimos dos años de la
329
+
330
+ 00:07:11.892 --> 00:07:15.852
331
+ empresa, por cada departamento y solo te habla de tres departamentos, eso
332
+
333
+ 00:07:15.852 --> 00:07:19.592
334
+ ya es una señal de que no está logrando controlar la ventana de
335
+
336
+ 00:07:19.592 --> 00:07:23.472
337
+ contexto y está empezando a olvidar o alucinar información. Y ahí lo
338
+
339
+ 00:07:23.472 --> 00:07:26.312
340
+ que te recomiendo es que la información que te haya servido hasta ese
341
+
342
+ 00:07:26.312 --> 00:07:29.432
343
+ punto del chat, la agarres, te la lleves a un nuevo chat
344
+
345
+ 00:07:29.432 --> 00:07:32.472
346
+ y empieces una nueva tarea en una ventana de contexto limpia con la
347
+
348
+ 00:07:32.472 --> 00:07:37.792
349
+ información que importa. Lo más importante de todo esto es que la
350
+
351
+ 00:07:37.792 --> 00:07:41.852
352
+ información que ingresas tiene que ser la necesaria para resolver el problema. Si
353
+
354
+ 00:07:41.852 --> 00:07:44.992
355
+ ingresas información de más, vas a caer en el problema de la
356
+
357
+ 00:07:44.992 --> 00:07:49.552
358
+ aguja en el pajar, y puede que la inteligencia artificial, el LLM, empiece
359
+
360
+ 00:07:49.552 --> 00:07:53.092
361
+ a alucinar y se pierda entre todo el contexto. Imagínate esta ventana
362
+
363
+ 00:07:53.092 --> 00:07:57.122
364
+ de contexto como un escritorio, y los tokens como la cantidad de páginas
365
+
366
+ 00:07:57.122 --> 00:08:01.392
367
+ que puedes tener visibles en el escritorio. Si solo puedes poner diez
368
+
369
+ 00:08:01.392 --> 00:08:05.062
370
+ y tienes veinte, chances hay de que se pierda la información. Porque, ¿cómo
371
+
372
+ 00:08:05.062 --> 00:08:08.722
373
+ priorizas cuáles son las diez que vas a poder ver? Lo importante
374
+
375
+ 00:08:08.722 --> 00:08:13.992
376
+ es identificar la información correcta, optimizar la m-venta ventana de contexto al máximo
377
+
378
+ 00:08:13.992 --> 00:08:17.452
379
+ y, desde ahí, poder tener mecanismos con los que identifiques en qué
380
+
381
+ 00:08:17.452 --> 00:08:20.672
382
+ momento empezó a alucinar u olvidar la información para que puedas empezar un
383
+
384
+ 00:08:20.672 --> 00:08:24.452
385
+ nuevo chat, reorganices tu mesa con las hojas y pongas la información
386
+
387
+ 00:08:24.452 --> 00:08:26.491
388
+ que importa para la tarea que quieres solucionar.
389
+
11-Técnicas de grounding para consultas legales con LLMs.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:acb34aa16ab70d82694c0b971c19b025ef040af6d5ff98eb5bfb9909c6c11521
3
+ size 436050296
11-Técnicas de grounding para consultas legales con LLMs.sub.vtt ADDED
@@ -0,0 +1,575 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.400 --> 00:00:04.090
4
+ Imagina que eres un product manager en una institución financiera en México. Es
5
+
6
+ 00:00:04.090 --> 00:00:07.060
7
+ una institución, digamos, un banco, y tienes la tarea de que vas
8
+
9
+ 00:00:07.060 --> 00:00:09.880
10
+ a crear un nuevo canal para atención de usuarios, que es una aplicación
11
+
12
+ 00:00:09.880 --> 00:00:14.460
13
+ móvil. Para poder proponer esto y que sea viable y te den
14
+
15
+ 00:00:14.460 --> 00:00:17.740
16
+ la aprobación, tienes que hacer un business case, tienes que hacer una propuesta
17
+
18
+ 00:00:17.740 --> 00:00:20.380
19
+ en donde consideres todas las cosas que tienes que tener en cuenta
20
+
21
+ 00:00:20.380 --> 00:00:24.220
22
+ para construirla. Y una de las cosas que va a ser más difícil
23
+
24
+ 00:00:24.220 --> 00:00:28.000
25
+ es entender la ley y la regulación que te aplica, y aunque
26
+
27
+ 00:00:28.000 --> 00:00:32.180
28
+ tienes un equipo legal, pues este es un trabajo que, en específico, tú
29
+
30
+ 00:00:32.180 --> 00:00:35.740
31
+ como product manager deberías un poco dominar esta ley para llegar con
32
+
33
+ 00:00:35.740 --> 00:00:39.540
34
+ propuestas más maduras y que el equipo legal no esté tanto gastándose el
35
+
36
+ 00:00:39.540 --> 00:00:45.080
37
+ tiempo en explicarte toda la ley financiera o de instituciones crediticias, sino
38
+
39
+ 00:00:45.080 --> 00:00:49.820
40
+ que se gaste más ese tiempo en discutir cómo hacer posible la idea.
41
+
42
+ 00:00:49.820 --> 00:00:54.760
43
+ Antes, lo que tenías que hacer para llegar ahí es convertirte en
44
+
45
+ 00:00:54.760 --> 00:00:59.360
46
+ un abogado, ser un experto en la ley, e incluso caías en el
47
+
48
+ 00:00:59.360 --> 00:01:03.060
49
+ problema de que mucho del vocabulario que se usa no necesariamente lo
50
+
51
+ 00:01:03.060 --> 00:01:06.780
52
+ vas a entender o te va a costar entender-- a entenderlo o vas
53
+
54
+ 00:01:06.780 --> 00:01:09.920
55
+ a interpretarlo mal. Pero justo esta es una de esas tareas en
56
+
57
+ 00:01:09.920 --> 00:01:13.690
58
+ donde podemos utilizar un LLM y es una de esas tareas donde vamos
59
+
60
+ 00:01:13.690 --> 00:01:17.679
61
+ a empezar a ver varias técnicas para solucionar el problema de la
62
+
63
+ 00:01:17.680 --> 00:01:22.300
64
+ aguja en un pajar, para que nos aseguremos que la inteligencia artificial no
65
+
66
+ 00:01:22.300 --> 00:01:27.320
67
+ va a alucinar, olvidar e inventar información, sino que de verdad nos
68
+
69
+ 00:01:27.320 --> 00:01:31.700
70
+ sirva para la tarea que queremos cumplir. Y espera, la función acá no
71
+
72
+ 00:01:31.700 --> 00:01:35.000
73
+ es reemplazar a un abogado. La función acá es poder avanzar más
74
+
75
+ 00:01:35.000 --> 00:01:38.200
76
+ en el trabajo para usar el tiempo de los abogados de la empresa
77
+
78
+ 00:01:38.200 --> 00:01:42.320
79
+ en lo que realmente va a traer mayor impacto. Entonces, vamos a
80
+
81
+ 00:01:42.320 --> 00:01:46.500
82
+ irnos a Gemini, que es el LLM con la mayor ventana de contexto
83
+
84
+ 00:01:46.500 --> 00:01:49.620
85
+ de un millón de tokens, y vamos a empezar a ver diferentes
86
+
87
+ 00:01:49.620 --> 00:01:53.880
88
+ técnicas que nos van a ayudar a asegurarnos que no tengamos el problema
89
+
90
+ 00:01:53.880 --> 00:01:59.660
91
+ de alucinaciones, de olvidar o que termine inventando cosas la inteligencia artificial.
92
+
93
+ 00:01:59.660 --> 00:02:03.600
94
+ Y esa primera técnica se va a llamar grounding. Entonces, vamos a irnos
95
+
96
+ 00:02:03.600 --> 00:02:06.140
97
+ a Gemini y vamos a subir uno de los archivos que te
98
+
99
+ 00:02:06.140 --> 00:02:09.258
100
+ dejé en los recursos. El primer archivo que vamos a abrir se llama
101
+
102
+ 00:02:09.258 --> 00:02:14.460
103
+ LIC.pdf, que es la ley de instituciones de crédito. En este caso,
104
+
105
+ 00:02:14.460 --> 00:02:18.420
106
+ esta es la ley de México para banca múltiple y lo que queremos
107
+
108
+ 00:02:18.420 --> 00:02:22.260
109
+ hacer es poderla consultar. Y para eso vamos a usar el siguiente
110
+
111
+ 00:02:22.260 --> 00:02:26.740
112
+ prompt, que tengo acá. Y es: «Eres un asistente legal especializado en la
113
+
114
+ 00:02:26.740 --> 00:02:32.329
115
+ regulación bancaria mexicana. Basa tu respuesta únicamente en mayúsculas en el documento
116
+
117
+ 00:02:32.329 --> 00:02:35.880
118
+ adjunto de la Ley de Instituciones de Crédito. Si la información no está
119
+
120
+ 00:02:35.880 --> 00:02:39.200
121
+ en el documento, responde que no se encuentra disponible». Y acá vemos
122
+
123
+ 00:02:39.200 --> 00:02:42.580
124
+ dos cosas que nos ayudan a este grounding. Lo primero es que le
125
+
126
+ 00:02:42.580 --> 00:02:47.519
127
+ aclaramos que la respuesta debe ser basada únicamente en el documento adjunto
128
+
129
+ 00:02:47.520 --> 00:02:52.520
130
+ y especificamos el nombre del documento. Podríamos decir documentos adjuntos y ya está,
131
+
132
+ 00:02:52.520 --> 00:02:56.480
133
+ pero especificar el nombre del documento hace que se enfoque específicamente y
134
+
135
+ 00:02:56.480 --> 00:03:00.769
136
+ no haya chance de que lo interprete por otro lugar. Únicamente lo ponemos
137
+
138
+ 00:03:00.769 --> 00:03:05.040
139
+ en mayúscula porque significa algo en nuestro lenguaje. Cuando alguien nos habla
140
+
141
+ 00:03:05.040 --> 00:03:09.079
142
+ en mayúscula, quiere decir que nos está haciendo énfasis en algo. Incluso hacemos
143
+
144
+ 00:03:09.080 --> 00:03:13.220
145
+ el chiste de que está gritando. Acá estamos haciendo eso, darle énfasis
146
+
147
+ 00:03:13.220 --> 00:03:17.200
148
+ en que únicamente en el documento adjunto. Y lo otro que hacemos es
149
+
150
+ 00:03:17.200 --> 00:03:20.460
151
+ que le damos una instrucción de qué debe hacer si no encuentra
152
+
153
+ 00:03:20.460 --> 00:03:23.720
154
+ información. Y acá lo más importante a tener en cuenta es que la
155
+
156
+ 00:03:23.720 --> 00:03:28.140
157
+ inteligencia artificial va a encontrar patrones, incluso en lugares donde no los
158
+
159
+ 00:03:28.140 --> 00:03:32.700
160
+ hay. La tarea de la inteligencia artificial es responderte sí o sí. Y
161
+
162
+ 00:03:32.700 --> 00:03:36.579
163
+ si lo que implica es inventar información, lo va a hacer. Entonces,
164
+
165
+ 00:03:36.580 --> 00:03:39.960
166
+ lo que estamos haciendo es ser explícitos en qué-- en qué debe hacer
167
+
168
+ 00:03:39.960 --> 00:03:42.700
169
+ en el momento en el que no encuentre información con la cual
170
+
171
+ 00:03:42.700 --> 00:03:46.400
172
+ responder. En lugar de inventar, mejor que nos dé una respuesta en donde
173
+
174
+ 00:03:46.400 --> 00:03:51.080
175
+ nos diga que no se encuentra esa información. Al enviar este prompt,
176
+
177
+ 00:03:51.080 --> 00:03:55.920
178
+ lo primero que estamos haciendo es darle un rol y dan-darle un enfoque
179
+
180
+ 00:03:55.920 --> 00:03:59.880
181
+ a lo que queremos que pase dentro de-de esta ventana de contexto.
182
+
183
+ 00:03:59.880 --> 00:04:03.240
184
+ Y listo. Acá me dice: «Ya procesé el documento y estoy lista para
185
+
186
+ 00:04:03.240 --> 00:04:07.840
187
+ responder a cualquier pregunta basándome exclusivamente en la información que contiene». Entonces,
188
+
189
+ 00:04:07.840 --> 00:04:09.900
190
+ vamos a hacer una pregunta. Le voy a dar el contexto de que
191
+
192
+ 00:04:09.900 --> 00:04:14.859
193
+ estoy creando una aplicación móvil para una eh, institución crediticia. En este
194
+
195
+ 00:04:14.860 --> 00:04:18.039
196
+ caso, me faltó una S acá, institución, y que será uno de los
197
+
198
+ 00:04:18.040 --> 00:04:21.640
199
+ canales de atención. Y le preguntamos qué requisitos de autenticación de un
200
+
201
+ 00:04:21.640 --> 00:04:26.360
202
+ cliente debe tener mi aplicación. Lo enviamos. Entonces, la respuesta que me da
203
+
204
+ 00:04:26.360 --> 00:04:29.220
205
+ es justo un caso en donde me dice: «La información sobre los
206
+
207
+ 00:04:29.220 --> 00:04:33.780
208
+ requisitos de autenticación específicos para una aplicación móvil no se encuentran disponibles en
209
+
210
+ 00:04:33.780 --> 00:04:37.160
211
+ el documento de la ley de instituciones de crédito proporcionado». Y luego
212
+
213
+ 00:04:37.160 --> 00:04:40.480
214
+ me dice de qué se trata. Lo más importante que acabamos de ver
215
+
216
+ 00:04:40.480 --> 00:04:43.340
217
+ acá es que las dos técnicas de grounding que acabamos de ver,
218
+
219
+ 00:04:43.340 --> 00:04:47.000
220
+ donde le decimos el únicamente y donde le damos una indicación de qué
221
+
222
+ 00:04:47.000 --> 00:04:51.180
223
+ hacer si no está la información disponible, funcionó. En lugar de inventarse
224
+
225
+ 00:04:51.180 --> 00:04:56.780
226
+ algo, nos dijo: «La información no está disponible». Ahora hagamos un ejemplo cuando
227
+
228
+ 00:04:56.780 --> 00:05:00.850
229
+ la información sí está disponible. Vamos a abrir un nuevo chat y
230
+
231
+ 00:05:00.850 --> 00:05:06.320
232
+ vamos a subir dos documentos adicionales. Tenemos la ley de institucio-- de instituciones
233
+
234
+ 00:05:06.320 --> 00:05:10.840
235
+ de crédito, que es la que subimos anteriormente, y vamos a subir
236
+
237
+ 00:05:10.840 --> 00:05:13.640
238
+ dos documentos más que encuentras en el área de recursos, que es el
239
+
240
+ 00:05:13.640 --> 00:05:17.580
241
+ anexo sesenta y tres, que habla sobre cómo, eh, es el uso
242
+
243
+ 00:05:17.580 --> 00:05:21.740
244
+ de el servicio de banca electrónica y uno de los diarios de la
245
+
246
+ 00:05:21.740 --> 00:05:25.800
247
+ re-- de la federación que hablan también sobre esto. En este caso,
248
+
249
+ 00:05:25.800 --> 00:05:28.600
250
+ si tú solo sabes sobre la ley y no tienes información de dónde
251
+
252
+ 00:05:28.600 --> 00:05:33.200
253
+ encuentras la, la regulación que estás buscando, ahí es donde tienes que
254
+
255
+ 00:05:33.200 --> 00:05:35.800
256
+ hablarle a tu equipo legal para que te guíen a cuál es la
257
+
258
+ 00:05:35.800 --> 00:05:39.220
259
+ información correcta. Acá simulamos de que el equipo legal ya me respondió
260
+
261
+ 00:05:39.220 --> 00:05:43.520
262
+ que es esta. Vamos a agregar esa información y vamos a volver al
263
+
264
+ 00:05:43.520 --> 00:05:47.719
265
+ prompt con el que empezamos todo esto, pero voy a hacer una
266
+
267
+ 00:05:47.720 --> 00:05:52.680
268
+ ligera modificación. El prompt con el que empezamos era: «Eres un asistente legal
269
+
270
+ 00:05:52.680 --> 00:05:56.479
271
+ especializado en la regulación me-- bancaria mexicana. Basa tu respuesta únicamente en
272
+
273
+ 00:05:56.480 --> 00:06:00.920
274
+ el documento adjunto de la ley de Instituciones de Crédito». Si yo lo
275
+
276
+ 00:06:00.920 --> 00:06:04.784
277
+ dejo así...A pesar de haber subido el Diario de la Federación y
278
+
279
+ 00:06:04.784 --> 00:06:07.844
280
+ el Anexo sesenta y tres, no lo va a tener en cuenta, porque
281
+
282
+ 00:06:07.844 --> 00:06:11.824
283
+ estoy siendo explícito en qué documento se debe enfocar. Entonces, voy a
284
+
285
+ 00:06:11.864 --> 00:06:17.064
286
+ decir: «Y documentos adjuntos». Y si la información no está en lo-- en
287
+
288
+ 00:06:17.064 --> 00:06:22.444
289
+ los documentos, responde que no se encuentra disponible. Yo podría haber dejado
290
+
291
+ 00:06:22.444 --> 00:06:25.484
292
+ que si la información no está en el documento, responde que no se
293
+
294
+ 00:06:25.484 --> 00:06:29.004
295
+ encuentra disponible y capaz y funciona. Pero lo que queremos es que
296
+
297
+ 00:06:29.004 --> 00:06:32.884
298
+ cada vez que lo usemos, funcione siempre. Entonces, capaz funciona una vez, pero
299
+
300
+ 00:06:32.884 --> 00:06:35.984
301
+ luego lo interpreta de otra manera y no funciona. Es mejor usar
302
+
303
+ 00:06:35.984 --> 00:06:40.764
304
+ las palabras correctas para lo que queremos decir. Lo envío y ahora me
305
+
306
+ 00:06:40.764 --> 00:06:44.164
307
+ dice que ya revisó los documentos y ya los identificó. La ley
308
+
309
+ 00:06:44.164 --> 00:06:48.224
310
+ de instituciones de crédito, el Diario Oficial de la Federación y el Anexo
311
+
312
+ 00:06:48.224 --> 00:06:51.664
313
+ sesenta y tres CV. Y ya está listo para ayudarme. Y voy
314
+
315
+ 00:06:51.664 --> 00:06:55.154
316
+ a hacer la misma pregunta: Estoy creando una aplicación móvil, ¿qué requisitos o
317
+
318
+ 00:06:55.154 --> 00:06:59.124
319
+ autenticación de un cliente debo tener mi aplicación? Lo envío y ahora
320
+
321
+ 00:06:59.124 --> 00:07:03.604
322
+ me respondió. Me dice: «Según los documentos proporcionados, requisitos de autenticación basado en
323
+
324
+ 00:07:03.604 --> 00:07:08.424
325
+ el Anexo sesenta y tres, esto es lo que tengo para decir.
326
+
327
+ 00:07:08.424 --> 00:07:10.984
328
+ Según el Diario de la Federación que yo le pasé», porque le pasé
329
+
330
+ 00:07:10.984 --> 00:07:14.664
331
+ uno de los diarios, no le pasé todo, eh, menciona cuáles son
332
+
333
+ 00:07:14.664 --> 00:07:18.224
334
+ los mecanismos de autenticación, ta, ta, ta, ta, ta. Ahora viene una técnica
335
+
336
+ 00:07:18.224 --> 00:07:21.604
337
+ un poco más avanzada. Voy a pedirle que para cada respuesta que
338
+
339
+ 00:07:21.604 --> 00:07:28.224
340
+ me entregue, me dé, eh, la cita textual del artículo que corresponde para
341
+
342
+ 00:07:28.224 --> 00:07:32.044
343
+ poder ubicar la información que me está dando. Entonces, voy a darle
344
+
345
+ 00:07:32.044 --> 00:07:35.444
346
+ este prompt. Se lo voy a poner acá. Le voy a decir: «Para
347
+
348
+ 00:07:35.444 --> 00:07:39.303
349
+ cada requisito que menciones, incluye la cita textual del artículo correspondiente, entre
350
+
351
+ 00:07:39.304 --> 00:07:43.164
352
+ comillas». Y vamos a ver qué me dice. Me da la respuesta y,
353
+
354
+ 00:07:43.164 --> 00:07:46.644
355
+ por ejemplo, identificador del usuario, me dice: «El número de, de línea
356
+
357
+ 00:07:46.644 --> 00:07:49.964
358
+ de teléfono móvil del usuario cuyo número de línea se encuentra asociado al
359
+
360
+ 00:07:49.964 --> 00:07:53.744
361
+ servicio AT. Este dato debe ser obtenido de forma automática por la
362
+
363
+ 00:07:53.744 --> 00:07:57.444
364
+ institución para ser utilizado como identificador de usuario». Vamos a hacer algo. Voy
365
+
366
+ 00:07:57.444 --> 00:08:01.984
367
+ a coger esta información que me entregó acá y voy a irme
368
+
369
+ 00:08:01.984 --> 00:08:05.924
370
+ a el Anexo sesenta y tres, al documento que descargué. Voy a buscar
371
+
372
+ 00:08:05.924 --> 00:08:09.564
373
+ la cita textual, en este caso, tal cual como me la entregó.
374
+
375
+ 00:08:09.564 --> 00:08:13.444
376
+ Voy a ponerlo, voy a irme acá, tengo el Anexo sesenta y tres,
377
+
378
+ 00:08:13.444 --> 00:08:17.203
379
+ le doy buscar y no aparece. Vamos a hacer una prueba. Pasa
380
+
381
+ 00:08:17.204 --> 00:08:20.584
382
+ que algunos PDFs tienden a ser imágenes a pesar de que vemos los
383
+
384
+ 00:08:20.584 --> 00:08:24.504
385
+ textos. Entonces, voy a coger esta palabra de acá, voy a copiarla,
386
+
387
+ 00:08:24.504 --> 00:08:27.274
388
+ voy a buscarla y voy a ver que en efecto encontró el texto.
389
+
390
+ 00:08:27.274 --> 00:08:31.074
391
+ Entonces no es el problema de mi PDF. Acá yo podría buscar.
392
+
393
+ 00:08:31.074 --> 00:08:34.044
394
+ Entonces, voy a-- voy a coger un par de palabras nada más. Teléfono
395
+
396
+ 00:08:34.044 --> 00:08:39.004
397
+ móvil del usuario. Y vamos a buscar. Acá me sale: «Servicios y
398
+
399
+ 00:08:39.004 --> 00:08:41.784
400
+ operaciones bancarias a través de un servicio telé cuyo número de línea está
401
+
402
+ 00:08:41.784 --> 00:08:44.824
403
+ asociado al servicio. Este dato debe ser obtenido de forma automática por
404
+
405
+ 00:08:44.824 --> 00:08:48.364
406
+ la institución para ser utilizado como identificador de usuario». Entonces, quiero que veas
407
+
408
+ 00:08:48.364 --> 00:08:53.024
409
+ algo. En este caso, la cita textual no la encontró porque tiene
410
+
411
+ 00:08:53.024 --> 00:08:58.464
412
+ unos caracteres especiales que están acá. Pero, en general, la información que me
413
+
414
+ 00:08:58.464 --> 00:09:01.624
415
+ está diciendo acá es parecida a la información que me parece acá.
416
+
417
+ 00:09:01.624 --> 00:09:04.244
418
+ Lo único es que si no es textual, si ves en este caso,
419
+
420
+ 00:09:04.244 --> 00:09:06.844
421
+ dice: «El número de línea del teléfono móvil del usuario cuyo número
422
+
423
+ 00:09:06.844 --> 00:09:10.524
424
+ de línea se encuentra asociado». Y acá es: «Servicios de operaciones bancarias a
425
+
426
+ 00:09:10.524 --> 00:09:13.233
427
+ través de un teléfono móvil del usuario cuyo número de línea está
428
+
429
+ 00:09:13.233 --> 00:09:18.104
430
+ asociado al servicio». Entonces, puedes buscar la cita completa, a veces no la
431
+
432
+ 00:09:18.104 --> 00:09:21.864
433
+ vas a encontrar, puedes buscar palabras para encontrar la referencia y lo
434
+
435
+ 00:09:21.864 --> 00:09:24.944
436
+ importante es que no siempre la cita la va a entregar tal cual.
437
+
438
+ 00:09:24.944 --> 00:09:30.784
439
+ Y esto se lo podemos decir. «En la cita del Anexo sesenta
440
+
441
+ 00:09:30.784 --> 00:09:38.324
442
+ y tres, no la encontré en el documento. ¿Puedes de-decirme en qué página
443
+
444
+ 00:09:38.324 --> 00:09:43.324
445
+ está?» El punto de esta técnica que estamos viendo es que al
446
+
447
+ 00:09:43.324 --> 00:09:47.364
448
+ pedirle las citas textuales podemos validar la información en los documentos de donde
449
+
450
+ 00:09:47.364 --> 00:09:51.684
451
+ vienen. Y desde ahí, ya que validamos que la información sí existe
452
+
453
+ 00:09:51.684 --> 00:09:55.364
454
+ en el documento, ahí ya podemos empezar a hacer más preguntas para entender
455
+
456
+ 00:09:55.364 --> 00:09:59.224
457
+ los puntos exactos que hablan de lo que él detectó que soluciona
458
+
459
+ 00:09:59.224 --> 00:10:03.624
460
+ mi pregunta o la cuestión que le estoy poniendo. Vamos a preguntarle qué
461
+
462
+ 00:10:03.624 --> 00:10:07.864
463
+ es lo que dice todas estas leyes y regulaciones sobre la custodia
464
+
465
+ 00:10:07.864 --> 00:10:11.724
466
+ de la información. Voy a enviarlo y voy a ver cuál es el
467
+
468
+ 00:10:11.724 --> 00:10:15.324
469
+ resultado. Lo importante acá es que va a revisar los tres documentos
470
+
471
+ 00:10:15.324 --> 00:10:18.764
472
+ y me va a decir, con citas exactas, qué lugares habla sobre la
473
+
474
+ 00:10:18.764 --> 00:10:21.804
475
+ custodia de la información. E incluso si te das cuenta, el prompt
476
+
477
+ 00:10:21.804 --> 00:10:27.284
478
+ es bastante amplio. Podríamos estar diciendo custodia de información del cliente, de las
479
+
480
+ 00:10:27.284 --> 00:10:31.404
481
+ cuentas bancarias, de qué específicamente. Acá el punto es que vamos a
482
+
483
+ 00:10:31.404 --> 00:10:34.144
484
+ ver todo lo que lo menciona y de ahí podemos empezar una investigación
485
+
486
+ 00:10:34.144 --> 00:10:37.244
487
+ más profunda. Y si vemos, dice que en el Diario Oficial de
488
+
489
+ 00:10:37.244 --> 00:10:44.584
490
+ la Federación cuenta sobre esta información y... nada más. Ningún otro documento me
491
+
492
+ 00:10:44.584 --> 00:10:47.444
493
+ habla de esto. Si yo le doy acá, puedo ver exactamente de
494
+
495
+ 00:10:47.444 --> 00:10:54.524
496
+ cuál documento se basó. Le puedo decir: «En la ley de Instituciones Crediticias
497
+
498
+ 00:10:54.524 --> 00:11:03.004
499
+ se menciona algo?». Entonces, recordemos lo que veíamos en la clase pasada.
500
+
501
+ 00:11:03.004 --> 00:11:06.444
502
+ En este caso, solo habló sobre el Diario de la Federación, pero yo
503
+
504
+ 00:11:06.444 --> 00:11:09.304
505
+ puedo recordarle que tiene un documento disponible, que es la ley de
506
+
507
+ 00:11:09.304 --> 00:11:14.744
508
+ Instituciones Crediticias y ver o pedirle que vaya y consulte ese documento y
509
+
510
+ 00:11:14.744 --> 00:11:18.364
511
+ vea si ahí hay alguna información que no me está entregando porque
512
+
513
+ 00:11:18.364 --> 00:11:22.324
514
+ se enfocó solamente en el Diario de la Federación. Y dice: «De acuerdo
515
+
516
+ 00:11:22.324 --> 00:11:25.843
517
+ a la información contenida en el, en la ley de Instituciones de
518
+
519
+ 00:11:25.844 --> 00:11:29.944
520
+ Crédito que proporcionaste, no se encuentra disponible el término custodia de la información
521
+
522
+ 00:11:29.944 --> 00:11:34.044
523
+ ni se hace mes-- mención a requisitos específicos sobre este tema». Entonces,
524
+
525
+ 00:11:34.044 --> 00:11:38.224
526
+ con esta última técnica también validamos que en los otros documentos no haya
527
+
528
+ 00:11:38.224 --> 00:11:41.124
529
+ presente información y que no se le esté olvidando o no esté
530
+
531
+ 00:11:41.124 --> 00:11:45.864
532
+ alucinando al respecto. Incluso podríamos mejorar el prompt que hicimos sobre la custodia
533
+
534
+ 00:11:45.864 --> 00:11:50.824
535
+ de la información, aclarándole que consulte los tres documentos adjuntos para no
536
+
537
+ 00:11:50.824 --> 00:11:55.384
538
+ tener que hacer estas validaciones adicionales. Con esta técnica de grounding, acabas de
539
+
540
+ 00:11:55.384 --> 00:11:59.184
541
+ aprender cómo puedes forzar al modelo a responder solamente con la información
542
+
543
+ 00:11:59.184 --> 00:12:04.014
544
+ que le proporcionas, diciéndole que lo haga únicamente basado en los datos adjuntos,
545
+
546
+ 00:12:04.014 --> 00:12:08.223
547
+ pero también agregando una cláusula o una información que diga qué hacer
548
+
549
+ 00:12:08.224 --> 00:12:12.184
550
+ en caso de no encontrar la información. Recuerda, esto no va a reemplazar
551
+
552
+ 00:12:12.184 --> 00:12:15.324
553
+ un abogado, pero sí te va a dar información necesaria para llegar
554
+
555
+ 00:12:15.324 --> 00:12:19.144
556
+ con una propuesta más elaborada. Lo importante es que no creas ciegamente en
557
+
558
+ 00:12:19.144 --> 00:12:22.324
559
+ lo que te dice el LLM, sino que crees mecanismos donde puedas
560
+
561
+ 00:12:22.324 --> 00:12:25.944
562
+ validar la información que te entregó y que esas propuestas lleguen desde un
563
+
564
+ 00:12:25.944 --> 00:12:29.244
565
+ lugar más informado, en lugar de que llegues a una reunión creyendo
566
+
567
+ 00:12:29.244 --> 00:12:32.444
568
+ que sabes de qué estás hablando y de repente fue la inteligencia artificial
569
+
570
+ 00:12:32.444 --> 00:12:35.564
571
+ la que alucinó y te hizo ver que no sabías del tema
572
+
573
+ 00:12:35.564 --> 00:12:37.324
574
+ que estabas tratando.
575
+
12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1a0773c1df6c9b8511d6ad17a869870a44bf0632b8e240840c16a790420f7128
3
+ size 190984196
12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.sub.vtt ADDED
@@ -0,0 +1,233 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.280 --> 00:00:04.500
4
+ Si te pregunto cuánto pagarías por tres camisetas de veinticinco dólares con un
5
+
6
+ 00:00:04.500 --> 00:00:10.080
7
+ 20 % de descuento, ¿qué me responderías? En mi caso, yo empezaría
8
+
9
+ 00:00:10.080 --> 00:00:14.890
10
+ por decir: «Bueno, 20 % de veinticinco es cinco dólares, entonces veinte menos
11
+
12
+ 00:00:14.890 --> 00:00:19.960
13
+ cinco... veinticinco menos cinco son veinte dólares, por tres son sesenta dólares».
14
+
15
+ 00:00:19.960 --> 00:00:26.420
16
+ Entonces, pagarías sesenta dólares. Esto que acabo de hacer fue verbalizar cuál fue
17
+
18
+ 00:00:26.420 --> 00:00:30.919
19
+ mi cadena de pensamiento para llegar al resultado. Es decir, dije con
20
+
21
+ 00:00:30.920 --> 00:00:35.280
22
+ palabras cuál fue el paso a paso que ejecuté en mi cabeza para
23
+
24
+ 00:00:35.280 --> 00:00:39.620
25
+ llegar al resultado de sesenta dólares. Primero, tenía el valor de veinticinco,
26
+
27
+ 00:00:39.620 --> 00:00:42.600
28
+ luego saqué el 20 %, que son cinco dólares, luego esos cinco se
29
+
30
+ 00:00:42.600 --> 00:00:46.240
31
+ los resté a los veinticinco, me dio veinte dólares, y luego multipliqué
32
+
33
+ 00:00:46.240 --> 00:00:51.400
34
+ veinte por tres. Esto, a nivel de LLMs, se llama chain of thought
35
+
36
+ 00:00:51.400 --> 00:00:55.460
37
+ o cadena de pensamiento. Y básicamente es lo que hace un LLM
38
+
39
+ 00:00:55.460 --> 00:00:58.980
40
+ cada vez que le ponemos una tarea. Hace un par de años, para
41
+
42
+ 00:00:58.980 --> 00:01:02.820
43
+ poder estimular al LLM y llegar a esa cadena de pensamiento, teníamos
44
+
45
+ 00:01:02.820 --> 00:01:07.280
46
+ que darle un problema y decirle: «Piensa paso a paso». Y de repente,
47
+
48
+ 00:01:07.280 --> 00:01:11.660
49
+ lo que el LLM hacía era primero pensar cuáles son los pasos
50
+
51
+ 00:01:11.660 --> 00:01:15.480
52
+ para resolver el problema y luego ejecutar esos pasos. Hoy en día podemos
53
+
54
+ 00:01:15.480 --> 00:01:19.680
55
+ decir que los modelos de razonamiento son los que hacen este proceso,
56
+
57
+ 00:01:19.680 --> 00:01:22.740
58
+ pero la verdad es que todos los modelos hoy en día razonan. La
59
+
60
+ 00:01:22.740 --> 00:01:27.240
61
+ diferencia entre un modelo rápido y un modelo pro o sofisticado o
62
+
63
+ 00:01:27.240 --> 00:01:31.800
64
+ de problemas complejos, es cuánto tiempo tienen para razonar. Pero eso lo vamos
65
+
66
+ 00:01:31.800 --> 00:01:34.380
67
+ a ver en las clases del futuro. En esta clase quiero que
68
+
69
+ 00:01:34.380 --> 00:01:38.360
70
+ nos centremos en, primero, entender qué es esta cadena de pensamiento, que es
71
+
72
+ 00:01:38.360 --> 00:01:41.300
73
+ el paso a paso para llegar a resolver un problema, en donde
74
+
75
+ 00:01:41.300 --> 00:01:44.680
76
+ nosotros se lo podemos dar o le podemos pedir al LLM que los
77
+
78
+ 00:01:44.680 --> 00:01:48.900
79
+ piense. Y segundo, cómo a través de esta cadena de pensamiento podemos
80
+
81
+ 00:01:48.900 --> 00:01:53.220
82
+ generar múltiples caminos que nos den el mejor resultado posible. Esto último se
83
+
84
+ 00:01:53.220 --> 00:01:58.500
85
+ llama self consistency, que es pedirle al LLM llegar a diferentes formas
86
+
87
+ 00:01:58.500 --> 00:02:02.400
88
+ de resolver un problema, ver los resultados y asegurarnos que todas las formas
89
+
90
+ 00:02:02.400 --> 00:02:06.480
91
+ llegan al resultado que queremos, o, por lo menos, escoger cuál es
92
+
93
+ 00:02:06.480 --> 00:02:09.720
94
+ el resultado más común dentro de todas las formas que tuvo para resolver
95
+
96
+ 00:02:09.720 --> 00:02:13.380
97
+ un problema. Y para poder ver esto en acción, vamos a seguir
98
+
99
+ 00:02:13.380 --> 00:02:18.440
100
+ con nuestro problema de cómo resolveríamos comprar tres camisas de veinticinco dólares con
101
+
102
+ 00:02:18.440 --> 00:02:22.640
103
+ 20 % de descuento. Quiero que abras Microsoft Copilot y vamos a
104
+
105
+ 00:02:22.640 --> 00:02:26.320
106
+ abrir un nuevo chat y vas a poner el siguiente prompt: «¿Cuánto pagarías
107
+
108
+ 00:02:26.320 --> 00:02:29.680
109
+ por tres camisas de veinticinco dólares cada una con un 20 %
110
+
111
+ 00:02:29.680 --> 00:02:33.360
112
+ de descuento?» Lo vamos a enviar y vamos a ver que nos cuente
113
+
114
+ 00:02:33.360 --> 00:02:36.620
115
+ cuál es el resultado. Muchas veces vas a ver que puede decirte
116
+
117
+ 00:02:36.620 --> 00:02:41.860
118
+ simplemente sesenta dólares, y algo que puedes decir es: «Piensa paso a paso».
119
+
120
+ 00:02:41.860 --> 00:02:44.040
121
+ Y muchas otras veces vas a ver que te va a contar
122
+
123
+ 00:02:44.040 --> 00:02:47.010
124
+ cuál fue el proceso. En este caso me dice: «Para calcular cuánto pagarías
125
+
126
+ 00:02:47.010 --> 00:02:50.380
127
+ por tres camisas de veinticinco dólares cada una con un 20 %
128
+
129
+ 00:02:50.380 --> 00:02:55.370
130
+ de descuento, primero multiplica el precio. Sin el descuento da setenta y cinco
131
+
132
+ 00:02:55.370 --> 00:02:59.760
133
+ dólares. Luego, calcula el descuento del 20 %, que serían quince dólares,
134
+
135
+ 00:02:59.760 --> 00:03:03.900
136
+ y luego, al precio final, le resta el descuento y son sesenta dólares».
137
+
138
+ 00:03:03.900 --> 00:03:07.760
139
+ Acabamos de ver otro camino diferente al mío para resolver el mismo
140
+
141
+ 00:03:07.760 --> 00:03:13.100
142
+ problema y llega a la misma solución: sesenta dólares. Ahora, ¿cómo podríamos aplicar
143
+
144
+ 00:03:13.100 --> 00:03:16.579
145
+ el tema de self consistency en el caso de prompts? Vamos a
146
+
147
+ 00:03:16.580 --> 00:03:20.840
148
+ abrir un nuevo chat y vamos a modificar ligeramente mi prompt con una
149
+
150
+ 00:03:20.840 --> 00:03:25.540
151
+ frase simple. «¿Cuánto pagarías por tres camisas de veinticinco dólares cada una
152
+
153
+ 00:03:25.540 --> 00:03:30.109
154
+ con un 20 % de descuento? Dame tres métodos para calcular esto». Voy
155
+
156
+ 00:03:30.109 --> 00:03:34.320
157
+ a darle enter. Y acá me va a entregar tres métodos, tres
158
+
159
+ 00:03:34.320 --> 00:03:38.260
160
+ cadenas de pensamiento con los cuales va a llegar al resultado. Veamos el
161
+
162
+ 00:03:38.260 --> 00:03:41.820
163
+ resultado. Método uno: descuento sobre el precio final, que fue el que
164
+
165
+ 00:03:41.820 --> 00:03:47.040
166
+ ya vimos. Precio unitario con descuento, entonces me dice: «Veinticinco dólares menos el
167
+
168
+ 00:03:47.040 --> 00:03:51.520
169
+ 20 % de veinticinco. Veinticinco menos cinco igual veinte. Precio final: tres
170
+
171
+ 00:03:51.520 --> 00:03:55.840
172
+ por veinte, sesenta». Ese fue mi método. Y el tercero, multiplicación por el
173
+
174
+ 00:03:55.840 --> 00:04:01.020
175
+ porcentaje restante. Entonces, dice: «100 % menos 20 % es igual a
176
+
177
+ 00:04:01.020 --> 00:04:04.650
178
+ 80 %, que es igual a 0.8. El precio final es setenta y
179
+
180
+ 00:04:04.650 --> 00:04:09.680
181
+ cinco dólares por 0.8, sesenta dólares». En este caso que estamos hablando
182
+
183
+ 00:04:09.680 --> 00:04:13.960
184
+ de una operación matemática, los tres métodos me llevan al mismo resultado. Incluso
185
+
186
+ 00:04:13.960 --> 00:04:16.659
187
+ si el modelo hubiera alucinado o no hubiera hecho bien una de
188
+
189
+ 00:04:16.660 --> 00:04:23.900
190
+ las operaciones, esta forma de pedirle el resultado me permitiría detectar errores. Porque
191
+
192
+ 00:04:23.900 --> 00:04:27.900
193
+ podríamos ver cuál fue la cadena de pensamiento en cada método y
194
+
195
+ 00:04:27.900 --> 00:04:30.960
196
+ si uno de los métodos da un resultado diferente, ya entrar a indagar
197
+
198
+ 00:04:30.960 --> 00:04:34.539
199
+ cuál es el método correcto. O de plano podríamos co-- escoger la
200
+
201
+ 00:04:34.540 --> 00:04:39.540
202
+ respuesta más común. Ya depende de cada problema la solución que queramos darle.
203
+
204
+ 00:04:39.540 --> 00:04:44.880
205
+ Pero con estas dos técnicas, uno, hacer verbal o que explique cuál
206
+
207
+ 00:04:44.880 --> 00:04:48.640
208
+ es el paso a paso de resolver un problema y dos, pedirle diferentes
209
+
210
+ 00:04:48.640 --> 00:04:54.740
211
+ métodos, tenemos una alternativa más a cómo podemos evitar las alucinaciones o
212
+
213
+ 00:04:54.740 --> 00:04:59.320
214
+ cómo podemos evitar que se invente cosas que no necesitamos para resolver un
215
+
216
+ 00:04:59.320 --> 00:05:03.000
217
+ problema. En este caso lo hice con un problema matemático, pero quiero
218
+
219
+ 00:05:03.000 --> 00:05:06.360
220
+ que tomes el ejemplo de la clase anterior donde hablábamos de las leyes
221
+
222
+ 00:05:06.360 --> 00:05:10.560
223
+ del sistema bancario y le hagas una pregunta del cual le pidas
224
+
225
+ 00:05:10.560 --> 00:05:13.520
226
+ tres métodos para llegar a la respuesta. Y quiero que me des en
227
+
228
+ 00:05:13.520 --> 00:05:17.560
229
+ los comentarios cuáles fueron los métodos a los que llegaste haciendo el
230
+
231
+ 00:05:17.560 --> 00:05:21.260
232
+ método de self consistency con el problema que vimos en la clase anterior.
233
+
14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fbc4fb1be3a583d797dcb46a2d37435cf4a8e3d2113fc18dbd72b06b0df4b6a9
3
+ size 299487439
14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.sub.vtt ADDED
@@ -0,0 +1,389 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.400 --> 00:00:04.019
4
+ En la clase anterior hablamos sobre la cadena de pensamiento o chain of
5
+
6
+ 00:00:04.019 --> 00:00:07.580
7
+ thought, y veíamos que básicamente es el proceso paso a paso para
8
+
9
+ 00:00:07.580 --> 00:00:11.320
10
+ resolver un problema. Quiero ahondar un poco más en esto con el siguiente
11
+
12
+ 00:00:11.320 --> 00:00:14.160
13
+ ejemplo. Vamos a ir a ChatGPT, y la diferencia esta vez es
14
+
15
+ 00:00:14.160 --> 00:00:17.700
16
+ que voy a partir de una cuenta paga. Es decir, si tenías tu
17
+
18
+ 00:00:17.700 --> 00:00:21.600
19
+ cuenta gratis antes, en este caso vas a tener que suscribirte y
20
+
21
+ 00:00:21.600 --> 00:00:26.470
22
+ vas a poder disfrutar de varias configuraciones nuevas que tienes disponibles solo por
23
+
24
+ 00:00:26.470 --> 00:00:30.310
25
+ estar en la versión paga. Lo primero que vas a tener disponible
26
+
27
+ 00:00:30.310 --> 00:00:34.400
28
+ es el-- la posibilidad de cambiar de modelo. En la parte de arriba,
29
+
30
+ 00:00:34.400 --> 00:00:37.960
31
+ donde dice ChatGPT 5, vas a ver que tiene una flecha y
32
+
33
+ 00:00:37.960 --> 00:00:41.990
34
+ cuando le picas vas a ver lo siguiente. Vas a ver la-- el
35
+
36
+ 00:00:41.990 --> 00:00:45.820
37
+ modo automático en donde él decide qué modelo de estos que me
38
+
39
+ 00:00:45.820 --> 00:00:49.680
40
+ muestra va a usar según el problema que yo le lanzo, o puedo
41
+
42
+ 00:00:49.680 --> 00:00:55.460
43
+ decirle directamente: «Quiero que me des el modelo instantáneo que me da
44
+
45
+ 00:00:55.460 --> 00:01:01.570
46
+ las respuestas sin darse un tiempo muy largo para pensar cómo resolverlo». Luego,
47
+
48
+ 00:01:01.570 --> 00:01:04.280
49
+ Thinking, que es el modelo que se va a tomar el tiempo
50
+
51
+ 00:01:04.280 --> 00:01:08.420
52
+ para pensar para resolver. Y luego tenemos el modelo Pro, que este solo
53
+
54
+ 00:01:08.420 --> 00:01:13.000
55
+ está disponible cuando pagas ChatGPT, la versión más alta, o cuando tienes
56
+
57
+ 00:01:13.000 --> 00:01:16.740
58
+ una cuenta de Enterprise y haces parte de un grupo de trabajo, tienes
59
+
60
+ 00:01:16.740 --> 00:01:21.700
61
+ ciertas capacidades del Pro limitadas al día a día. Y luego tenemos
62
+
63
+ 00:01:21.700 --> 00:01:24.480
64
+ los modelos Legacy, que es poder acceder a los modelos que había lanzado
65
+
66
+ 00:01:24.480 --> 00:01:28.680
67
+ antes ChatGPT, pero eso no lo necesitamos en este momento. Nos vamos
68
+
69
+ 00:01:28.680 --> 00:01:33.740
70
+ a enfocar en qué tanto queremos que piense la respuesta. Y para este
71
+
72
+ 00:01:33.740 --> 00:01:37.840
73
+ primer ejemplo vamos a irnos con el modelo instantáneo. Y el primer
74
+
75
+ 00:01:37.840 --> 00:01:40.920
76
+ ejemplo que vamos a poner es el siguiente prompt: «Un grupo de veintitrés
77
+
78
+ 00:01:40.920 --> 00:01:44.860
79
+ personas quiere sentarse en mesas con seis sillas cada una. ¿Son suficientes
80
+
81
+ 00:01:44.860 --> 00:01:48.580
82
+ cuatro mesas?» Lo que quiero que veas es cómo el mismo prompt lo
83
+
84
+ 00:01:48.580 --> 00:01:52.220
85
+ va a resolver dependiendo de cuál es el modelo que usamos y,
86
+
87
+ 00:01:52.220 --> 00:01:57.600
88
+ luego, cómo podemos inducir ese pensamiento paso a paso que queremos ejecutar cada
89
+
90
+ 00:01:57.600 --> 00:02:02.480
91
+ vez que lanzamos un prompt. Lo envío y vemos que la respuesta
92
+
93
+ 00:02:02.480 --> 00:02:05.940
94
+ es instantánea. Me dice: «Cada mesa tiene seis sillas y hay cuatro mesas,
95
+
96
+ 00:02:05.940 --> 00:02:10.440
97
+ entonces seis por cuatro, veinticuatro sillas en total. Como el grupo es
98
+
99
+ 00:02:10.440 --> 00:02:13.780
100
+ de veintitrés personas y veintitrés es menor a veinticuatro, entonces se alcanzan las
101
+
102
+ 00:02:13.780 --> 00:02:19.000
103
+ sillas, sobraría una silla libre». Aunque no le dijimos que nos mostrara
104
+
105
+ 00:02:19.000 --> 00:02:22.160
106
+ la cadena de pensamiento, lo hizo y fue muy rápido en darnos la
107
+
108
+ 00:02:22.160 --> 00:02:26.700
109
+ respuesta. También es un problema bastante simple. No nos enfoquemos en la
110
+
111
+ 00:02:26.700 --> 00:02:31.380
112
+ complejidad del problema. Veamos exactamente el mismo problema con el modelo Thinking. Creamos
113
+
114
+ 00:02:31.380 --> 00:02:35.680
115
+ un nuevo chat, cambiamos el modelo a Thinking y, tal cual como
116
+
117
+ 00:02:35.680 --> 00:02:38.590
118
+ lo acabamos de hacer, le decimos el mismo prompt: «Un grupo de veintitrés
119
+
120
+ 00:02:38.590 --> 00:02:43.400
121
+ personas quiere sentarse en seis sillas cada una. ¿Son suficientes cuatro mesas?»
122
+
123
+ 00:02:43.400 --> 00:02:45.500
124
+ Y lo primero que vamos a ver es que se va a demorar
125
+
126
+ 00:02:45.500 --> 00:02:49.940
127
+ más, va a decir Thinking. Y en ese Thinking nos dice: «Sí,
128
+
129
+ 00:02:49.940 --> 00:02:54.020
130
+ cada mesa tiene seis sillas, cuatro mesas, cuatro por seis, veinticuatro, son veintitrés
131
+
132
+ 00:02:54.020 --> 00:02:58.600
133
+ personas, alcanzas y sobra una silla». Me dio la misma respuesta, pero
134
+
135
+ 00:02:58.600 --> 00:03:02.500
136
+ le tomó un poquito más de tiempo llegar a ella. Ahora, en cada
137
+
138
+ 00:03:02.500 --> 00:03:07.380
139
+ una de estas que acabamos de ver, eh, pues en la primera
140
+
141
+ 00:03:07.380 --> 00:03:10.180
142
+ nos contó un poco la operación matemática para llegar allá y nos dio
143
+
144
+ 00:03:10.180 --> 00:03:13.600
145
+ la narrativa de cómo llegó allá, pero incluso cómo pensó que tenía
146
+
147
+ 00:03:13.600 --> 00:03:18.840
148
+ que hacer una operación matemática. Acá, de hecho, lo pensó y llegó a
149
+
150
+ 00:03:18.840 --> 00:03:23.299
151
+ la misma respuesta y nos cuenta la misma operación matemática, pero todavía
152
+
153
+ 00:03:23.300 --> 00:03:26.400
154
+ queda la duda, cómo llegó a que esto lo podía resolver de esa
155
+
156
+ 00:03:26.400 --> 00:03:31.240
157
+ manera. Vamos a hacer un nuevo chat y bajo el mismo Thinking
158
+
159
+ 00:03:31.240 --> 00:03:35.000
160
+ vamos a usar el mismo prompt, pero le voy a decir: «Piensa "paso
161
+
162
+ 00:03:35.000 --> 00:03:39.220
163
+ a paso"». Y lo enviamos. Y ahora nos va a salir el
164
+
165
+ 00:03:39.220 --> 00:03:45.140
166
+ Thinking. Y si esperamos un segundo más, nos va a decir calculando las
167
+
168
+ 00:03:45.140 --> 00:03:50.180
169
+ sillas y dice: «Pensé por cuatro segundos». Vamos a calcularlo. Cuatro mesas
170
+
171
+ 00:03:50.180 --> 00:03:53.880
172
+ con seis sillas cada una, cuatro por seis, veinticuatro. Como hay veintitrés personas,
173
+
174
+ 00:03:53.880 --> 00:03:58.100
175
+ comparamos veinticuatro sobre veintitrés, por lo tanto, sobra una silla. Listo, tarea
176
+
177
+ 00:03:58.100 --> 00:04:03.100
178
+ resuelta. El paso corto es este. Puedes organizar, por ejemplo, tres mesas con
179
+
180
+ 00:04:03.100 --> 00:04:06.360
181
+ seis personas y una mesa con cinco. A todos llegamos al mismo
182
+
183
+ 00:04:06.360 --> 00:04:10.860
184
+ resultado, pero la diferencia es cómo el prompt nos permitió ver cuál fue
185
+
186
+ 00:04:10.860 --> 00:04:15.500
187
+ el proceso de pensamiento para llegar allá. ¿Esto qué quiere decir? ¿Que
188
+
189
+ 00:04:15.500 --> 00:04:18.620
190
+ nuestros prompts ahora tienen que ser más sencillos, ya que el modelo puede
191
+
192
+ 00:04:18.620 --> 00:04:23.820
193
+ razonar, puede pensar ese paso a paso? La verdad es que depende
194
+
195
+ 00:04:23.820 --> 00:04:26.320
196
+ del problema. Y el ejercicio que acabamos de hacer es lo que te
197
+
198
+ 00:04:26.320 --> 00:04:29.760
199
+ invito a hacer cada vez que tú vayas a tener un prompt.
200
+
201
+ 00:04:29.820 --> 00:04:33.990
202
+ Yo siempre intento el mismo problema, resolverlo con diferentes modelos en la misma
203
+
204
+ 00:04:33.990 --> 00:04:38.340
205
+ herramienta y ver cuál es la calidad de la respuesta. E incluso
206
+
207
+ 00:04:38.340 --> 00:04:41.640
208
+ si yo veo que la respuesta está llegando a ser no la que
209
+
210
+ 00:04:41.640 --> 00:04:44.680
211
+ yo esperaba, le doy el paso a paso que yo espero que
212
+
213
+ 00:04:44.680 --> 00:04:47.940
214
+ siga, porque cuando le doy el paso a paso que yo espero que
215
+
216
+ 00:04:47.940 --> 00:04:51.900
217
+ siga, estoy limitando también esa cadena de pensamiento. Cada uno de esos
218
+
219
+ 00:04:51.900 --> 00:04:54.840
220
+ pasos se va a convertir en un prompt y cada uno de esos
221
+
222
+ 00:04:54.840 --> 00:05:00.580
223
+ pasos los va a usar para pensar cómo resolverlos. Entonces, estamos limitando
224
+
225
+ 00:05:00.580 --> 00:05:05.540
226
+ los caminos por los que se puede ir. Incluso, hagamos algo nuevo. Vamos
227
+
228
+ 00:05:05.540 --> 00:05:11.000
229
+ a decirle este mismo prompt y le vamos a decir: «Descríbeme el
230
+
231
+ 00:05:11.000 --> 00:05:22.180
232
+ paso a paso... Paso que harías para resolver este tipo de problemas. Dame
233
+
234
+ 00:05:22.180 --> 00:05:27.420
235
+ tres alternativas». Y vamos a ver cuál es la respuesta. Esto lo
236
+
237
+ 00:05:27.420 --> 00:05:30.820
238
+ está haciendo en el modelo Thinking. Acá tenemos la respuesta y quiero que
239
+
240
+ 00:05:30.820 --> 00:05:33.360
241
+ veas lo siguiente. Al pedirle que me dé el paso a paso
242
+
243
+ 00:05:33.360 --> 00:05:35.460
244
+ que-- de lo que haría como si fuera un template y que me
245
+
246
+ 00:05:35.460 --> 00:05:39.599
247
+ diera tres alternativas, uno, estamos aplicando lo que aprendimos en la clase
248
+
249
+ 00:05:39.600 --> 00:05:43.520
250
+ pasada de self-consistency, pero dos, el problema fue más complejo y en este
251
+
252
+ 00:05:43.520 --> 00:05:47.820
253
+ caso pensó por quince segundos. Y cuando le doy que-- clic acá,
254
+
255
+ 00:05:47.820 --> 00:05:52.060
256
+ voy a ver cuál fue la cadena de pensamiento. En este caso, ChatGPT
257
+
258
+ 00:05:52.060 --> 00:05:56.240
259
+ está configurado para que piense en inglés. Entonces, voy a ver el
260
+
261
+ 00:05:56.240 --> 00:05:59.710
262
+ paso a paso y la cadena de pensamiento en inglés, y luego voy
263
+
264
+ 00:05:59.710 --> 00:06:03.728
265
+ a ver el resultado. Y acá puedo ver...Voy a responder el problema
266
+
267
+ 00:06:03.728 --> 00:06:09.248
268
+ matemático que tiene, eh, y mostrar los pasos. Va a ofrecer tres approaches.
269
+
270
+ 00:06:09.248 --> 00:06:13.538
271
+ Entonces, lo primero que pensó fue cuáles son los-- las diferentes alternativas.
272
+
273
+ 00:06:13.538 --> 00:06:21.268
274
+ Multiplicación y comparación, división y redondear hacia arriba, y luego, uso de, de...
275
+
276
+ 00:06:21.268 --> 00:06:28.228
277
+ división y dividendos. Y luego, va a crear la respuesta que me
278
+
279
+ 00:06:28.228 --> 00:06:33.328
280
+ muestra las tres alternativas, y con eso luego hizo el breakdown de cómo
281
+
282
+ 00:06:33.328 --> 00:06:35.668
283
+ se ve esa respuesta y ya me la mostró y acá la
284
+
285
+ 00:06:35.668 --> 00:06:39.328
286
+ tenemos. Voy a usar una de las plantillas que me dio, multiplicar y
287
+
288
+ 00:06:39.328 --> 00:06:43.288
289
+ comparar. Voy a irme a un nuevo chat, voy a poner multiplicar
290
+
291
+ 00:06:43.288 --> 00:06:51.288
292
+ y comparar. Eh, le voy a decir: «Usando este template, resuelve el problema
293
+
294
+ 00:06:51.288 --> 00:06:55.888
295
+ que te daré». El template es este, y luego le digo el
296
+
297
+ 00:06:55.888 --> 00:06:59.988
298
+ problema, y el problema va a ser ligeramente distinto al que le había
299
+
300
+ 00:06:59.988 --> 00:07:04.228
301
+ dado. Voy a ponerlo acá, le voy a decir: «Un grupo de
302
+
303
+ 00:07:04.228 --> 00:07:08.018
304
+ veintitrés personas quiere sentarse en seis sillas cada una, ¿son suficientes cuatro mesas?»
305
+
306
+ 00:07:08.018 --> 00:07:11.648
307
+ Le voy a decir que son trescientas personas y voy a decirle
308
+
309
+ 00:07:11.648 --> 00:07:16.808
310
+ que si son suficientes, doscientas mesas. No, mentiras, voy a decirle que sí
311
+
312
+ 00:07:16.808 --> 00:07:22.028
313
+ son suficientes cincuenta mesas. Entonces, mismo prompt, estamos cambiando las variables para
314
+
315
+ 00:07:22.028 --> 00:07:26.688
316
+ ver que la plantilla que le estoy dando funciona, pero ahora el paso
317
+
318
+ 00:07:26.688 --> 00:07:29.628
319
+ a paso ya está acotado a que esta sea la forma en
320
+
321
+ 00:07:29.628 --> 00:07:34.048
322
+ la que lo va a resolver. Lo enviamos y originalmente, cuando le pusimos
323
+
324
+ 00:07:34.048 --> 00:07:36.948
325
+ el prompt sin el paso a paso, pensó por cuatro segundos. Cuando
326
+
327
+ 00:07:36.948 --> 00:07:40.908
328
+ le pedimos la plantilla, pensó por quince segundos. Y acá ni siquiera alcanzó
329
+
330
+ 00:07:40.908 --> 00:07:45.308
331
+ a decirme cuánto, fue a few seconds, unos pocos segundos. Y lo
332
+
333
+ 00:07:45.308 --> 00:07:49.698
334
+ que hizo fue seguir literalmente el paso a paso. Vamos a multiplicar cincuenta
335
+
336
+ 00:07:49.698 --> 00:07:53.808
337
+ por seis, trescientos. Comparamos con las trescientas personas, trescientos es mayor o
338
+
339
+ 00:07:53.808 --> 00:07:59.328
340
+ igual a trescientos. Conclusión, es exactamente suficiente y me entrega ese resultado. No
341
+
342
+ 00:07:59.328 --> 00:08:03.248
343
+ sobran sillas, es exactamente suficiente. Con modelos de razonamiento como lo que
344
+
345
+ 00:08:03.248 --> 00:08:06.048
346
+ acabamos de ver, algo que a mí me ha sido muy útil es
347
+
348
+ 00:08:06.048 --> 00:08:10.327
349
+ empezar con el problema muy amplio, ver alternativas de cómo es el
350
+
351
+ 00:08:10.328 --> 00:08:15.228
352
+ chain of thought o esa cadena de pensamiento para resolverlo... Después de analizar
353
+
354
+ 00:08:15.228 --> 00:08:18.148
355
+ la cadena de pensamiento, unificar cuál es la que más me parece
356
+
357
+ 00:08:18.148 --> 00:08:22.228
358
+ que resolvería el problema de manera más efectiva y luego volver a ir
359
+
360
+ 00:08:22.228 --> 00:08:25.308
361
+ con el prompt dándole el paso a paso que va a resolver
362
+
363
+ 00:08:25.308 --> 00:08:30.448
364
+ el problema para el futuro. Con esto también empiezo a evitar un problema
365
+
366
+ 00:08:30.448 --> 00:08:34.648
367
+ que es: ¿Cuáles son las palabras para-- correctas para decir esto? Estamos
368
+
369
+ 00:08:34.648 --> 00:08:38.508
370
+ cayendo en cuáles son las palabras que usaría el modelo para pensar en
371
+
372
+ 00:08:38.508 --> 00:08:43.048
373
+ cómo resolver el problema y basados en eso complementar el prompt para
374
+
375
+ 00:08:43.048 --> 00:08:48.228
376
+ ir limitando esa creatividad y llegar al resultado que siempre estamos esperando. Esto
377
+
378
+ 00:08:48.228 --> 00:08:51.128
379
+ quiere decir que en modelos de razonamiento no significa que nos saltemos
380
+
381
+ 00:08:51.128 --> 00:08:55.248
382
+ el paso a paso, significa que tenemos una herramienta más para poder acotar
383
+
384
+ 00:08:55.248 --> 00:08:58.788
385
+ esa creatividad y llegar al prompt exacto que necesitamos para resolver un
386
+
387
+ 00:08:58.788 --> 00:08:59.448
388
+ problema.
389
+
15-Prompt chaining dividir tareas complejas en pasos independientes.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:68b1d897b76eedfc6a262ea042d3cd9227de5189e72b1798648de5ac29378136
3
+ size 280298541
15-Prompt chaining dividir tareas complejas en pasos independientes.sub.vtt ADDED
@@ -0,0 +1,362 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.220 --> 00:00:03.880
4
+ Piensa en prompt chaining como si fuera una línea de ensamblaje. Estamos en
5
+
6
+ 00:00:03.880 --> 00:00:06.779
7
+ una fábrica de autos y la realidad es que no es que
8
+
9
+ 00:00:06.780 --> 00:00:09.820
10
+ digamos: «Quiero un auto» y de repente sale un auto. Hay un primer
11
+
12
+ 00:00:09.820 --> 00:00:12.980
13
+ paso con la carrocería, hay un segundo paso, donde se ponen las
14
+
15
+ 00:00:12.980 --> 00:00:16.219
16
+ puertas, hay un tercer paso, donde se pone todo lo eléctrico, hay un
17
+
18
+ 00:00:16.219 --> 00:00:20.040
19
+ cuarto paso, donde se pone el motor, hay un quinto paso, donde
20
+
21
+ 00:00:20.040 --> 00:00:24.150
22
+ se pone toda la cojinería y cada uno de esos pasos va dando
23
+
24
+ 00:00:24.150 --> 00:00:27.030
25
+ pie al siguiente para poder terminar al final de la cadena de
26
+
27
+ 00:00:27.030 --> 00:00:31.300
28
+ ensamblaje con un coche construido. Con los prompts funciona igual. En lugar de
29
+
30
+ 00:00:31.300 --> 00:00:34.420
31
+ tener un prompt gigante que llegue y me diga: «Creo una estrategia
32
+
33
+ 00:00:34.420 --> 00:00:39.360
34
+ de marketing para el siguiente Q del año», pues es una tarea gigante.
35
+
36
+ 00:00:39.360 --> 00:00:42.700
37
+ Y ya vimos chain of thought y ya vimos self-consistency, y sí,
38
+
39
+ 00:00:42.700 --> 00:00:46.820
40
+ podemos tener el paso a paso y puedes llegar a un resultado. Pero
41
+
42
+ 00:00:46.820 --> 00:00:51.300
43
+ igual como en una cadena de ensamblaje de un coche, cada estación
44
+
45
+ 00:00:51.300 --> 00:00:53.980
46
+ tiene un propósito y tiene muy claro qué es lo que tiene que
47
+
48
+ 00:00:53.980 --> 00:00:57.620
49
+ resolver y cuál es su resultado para pasar a la siguiente estación.
50
+
51
+ 00:00:57.620 --> 00:01:01.440
52
+ En este caso, si vamos a crear una estrategia de marketing y nosotros
53
+
54
+ 00:01:01.440 --> 00:01:05.280
55
+ somos expertos en marketing, podríamos partir desde ahí arriba, pero la verdad
56
+
57
+ 00:01:05.280 --> 00:01:08.280
58
+ es que nosotros sabemos cómo hacer una estrategia de marketing paso a paso
59
+
60
+ 00:01:08.280 --> 00:01:11.710
61
+ y cuál es el resultado de cada una de esas estaciones. Va
62
+
63
+ 00:01:11.710 --> 00:01:14.200
64
+ a ser muy parecido a lo que hicimos en chain of thought, donde
65
+
66
+ 00:01:14.200 --> 00:01:17.760
67
+ tenemos un paso a paso, pero acá estamos dividiendo el problema en
68
+
69
+ 00:01:17.760 --> 00:01:20.320
70
+ cada uno de esos pasos para que cada uno de esos pasos sea
71
+
72
+ 00:01:20.320 --> 00:01:23.539
73
+ un prompt, para que cada uno de esos pasos sea algo que
74
+
75
+ 00:01:23.540 --> 00:01:26.920
76
+ hacemos dentro del ChatGPT o dentro del LLM, de preferencia en un nuevo
77
+
78
+ 00:01:26.920 --> 00:01:31.140
79
+ chat. Imagina, por ejemplo, que a partir de un resumen de un
80
+
81
+ 00:01:31.140 --> 00:01:35.760
82
+ artículo de un blog que escribiste, quieres hacer las publicaciones en social media.
83
+
84
+ 00:01:35.760 --> 00:01:39.320
85
+ Primero, el punto es sacar los puntos claves de ese blog post
86
+
87
+ 00:01:39.320 --> 00:01:43.060
88
+ que escribiste. Lo siguiente es que cada uno de esos puntos claves los
89
+
90
+ 00:01:43.060 --> 00:01:47.030
91
+ vas a convertir en una publicación para una red social. Digamos que
92
+
93
+ 00:01:47.030 --> 00:01:50.280
94
+ es Instagram. Luego de que sabes cómo cada uno de esos puntos se
95
+
96
+ 00:01:50.280 --> 00:01:53.740
97
+ convierte en la publicación de Instagram, lo siguiente es crear la pie--
98
+
99
+ 00:01:53.740 --> 00:01:58.120
100
+ la pieza gráfica. Luego de que creaste la pieza gráfica, lo siguiente va
101
+
102
+ 00:01:58.120 --> 00:02:00.640
103
+ a ser crear el texto que va a acompañar esa pieza cuando
104
+
105
+ 00:02:00.640 --> 00:02:04.840
106
+ la publiques. Y hasta que tengas todos esos pasos resueltos, vas a poder
107
+
108
+ 00:02:04.840 --> 00:02:09.620
109
+ publicar esa pieza en tu feed. Aquí el punto es que podríamos
110
+
111
+ 00:02:09.620 --> 00:02:13.160
112
+ hacerlo en una sola conversación, pero ya hemos venido hablando sobre cuál es
113
+
114
+ 00:02:13.160 --> 00:02:16.980
115
+ el problema de agrandar la ventana de contexto. Y lo más óptimo
116
+
117
+ 00:02:16.980 --> 00:02:21.020
118
+ para sacar el mejor provecho de un LLM es que dejemos de hacerlo
119
+
120
+ 00:02:21.020 --> 00:02:24.660
121
+ en una sola conversación y que el resultado de cada paso pase
122
+
123
+ 00:02:24.660 --> 00:02:28.100
124
+ a un nuevo chat para partir al siguiente paso que tenemos en la
125
+
126
+ 00:02:28.100 --> 00:02:31.320
127
+ cadena, justo como si habláramos de la cadena de producción de un
128
+
129
+ 00:02:31.320 --> 00:02:34.320
130
+ coche. Vamos a ir a un ejemplo detallado y es que voy a
131
+
132
+ 00:02:34.320 --> 00:02:39.160
133
+ tomar el último reporte de la organización Cl-Climate Change Committee, que está
134
+
135
+ 00:02:39.160 --> 00:02:44.560
136
+ en Inglaterra, que en abril de 2025 generó un reporte sobre cómo estaba
137
+
138
+ 00:02:44.560 --> 00:02:48.660
139
+ avanzando la adopción de cambio climático dentro de Inglaterra al Parlamento. Y
140
+
141
+ 00:02:48.660 --> 00:02:52.480
142
+ a partir de eso vamos a tratar de generar contenido que venga de
143
+
144
+ 00:02:52.480 --> 00:02:55.120
145
+ ese reporte. Vamos a crear un resumen de cien palabras que de
146
+
147
+ 00:02:55.120 --> 00:03:00.020
148
+ verdad nos aporte para entender las causas, efectos y soluciones del cambio climático.
149
+
150
+ 00:03:00.020 --> 00:03:02.900
151
+ Pero, pues hacer un resumen es bastante sencillo. Lo hicimos en el
152
+
153
+ 00:03:02.900 --> 00:03:06.080
154
+ primer módulo con un solo prompt. Acá vamos a hacer algo diferente, lo
155
+
156
+ 00:03:06.080 --> 00:03:09.700
157
+ vamos a dividir en tres pasos. El primer paso va a sacar
158
+
159
+ 00:03:09.700 --> 00:03:13.660
160
+ los puntos más relevantes del reporte. El segundo paso lo va a clasificar
161
+
162
+ 00:03:13.660 --> 00:03:17.780
163
+ entre causas, efectos y soluciones. Y el tercer paso va a tomar
164
+
165
+ 00:03:17.780 --> 00:03:21.780
166
+ ese resultado para generar el resumen. Veamos cómo cambia comparado a lo que
167
+
168
+ 00:03:21.780 --> 00:03:24.840
169
+ hicimos en el primer módulo. En la parte de recursos te dejé
170
+
171
+ 00:03:24.840 --> 00:03:28.150
172
+ tres archivos: un PDF, que es el reporte de cómo es el progreso
173
+
174
+ 00:03:28.150 --> 00:03:33.060
175
+ adaptándose al cambio climático en Inglaterra, y dos, eh, spreadsheets, uno que
176
+
177
+ 00:03:33.060 --> 00:03:36.240
178
+ trae todas las gráficas y datos que aportan al reporte y uno que
179
+
180
+ 00:03:36.240 --> 00:03:40.900
181
+ tiene una serie de recomendaciones. Y tenemos nuestro prompt. Extrae los cinco
182
+
183
+ 00:03:40.900 --> 00:03:44.080
184
+ puntos más importantes del reporte que te adjunté sobre el progreso del cambio
185
+
186
+ 00:03:44.080 --> 00:03:48.020
187
+ climático en UK. Le vamos a dar enviar. Y algo que vamos
188
+
189
+ 00:03:48.020 --> 00:03:50.640
190
+ a ver es que apenas lo envío, va a tratar de mostrarme un
191
+
192
+ 00:03:50.640 --> 00:03:53.460
193
+ preview de los archivos que subí. Entonces, me está diciendo que no
194
+
195
+ 00:03:53.460 --> 00:03:57.000
196
+ me puede mostrar el preview de, eh, gráficas y datos, pero sí me
197
+
198
+ 00:03:57.000 --> 00:04:01.480
199
+ muestra el de las recomendaciones y el PDF está por acá. Y
200
+
201
+ 00:04:01.480 --> 00:04:05.300
202
+ ahora, como estoy usando el thinking, va a tardarse un rato, pero también
203
+
204
+ 00:04:05.300 --> 00:04:07.900
205
+ yo puedo ver cuál es el chain of thought. Lo primero que
206
+
207
+ 00:04:07.900 --> 00:04:12.480
208
+ está haciendo es leyendo los documentos. Le dio doble lectura. Y ya que
209
+
210
+ 00:04:12.480 --> 00:04:16.760
211
+ terminó la segunda lectura, dice: «El usuario preguntó por cinco key points.
212
+
213
+ 00:04:16.760 --> 00:04:19.880
214
+ Voy a enfocarme en lo siguiente, ta, ta, ta». Y me entrega los
215
+
216
+ 00:04:19.880 --> 00:04:23.840
217
+ cinco mensajes claves del reporte e incluso me da las citas de
218
+
219
+ 00:04:23.840 --> 00:04:29.120
220
+ dónde encuentro esa información de la cual se basó para darme la respuesta.
221
+
222
+ 00:04:29.120 --> 00:04:31.860
223
+ Y esto es lo clave. Yo voy a irme al icono de
224
+
225
+ 00:04:31.860 --> 00:04:35.120
226
+ acá que dice copiar, le voy a picar y me voy a ir
227
+
228
+ 00:04:35.120 --> 00:04:39.700
229
+ al nuevo chat. Y acá le voy a decir: toma los siguientes
230
+
231
+ 00:04:39.700 --> 00:04:44.360
232
+ puntos, dos puntos, y voy a pegar lo que me dio. En este
233
+
234
+ 00:04:44.360 --> 00:04:47.800
235
+ caso, simplemente, voy a quitar la información que no me sirve, voy
236
+
237
+ 00:04:47.800 --> 00:04:51.940
238
+ a dejar solamente los puntos, y desde acá le voy a decir que
239
+
240
+ 00:04:51.940 --> 00:04:57.659
241
+ me los organice por las categorías que estoy buscando generar el reporte.
242
+
243
+ 00:04:57.660 --> 00:05:01.950
244
+ Entonces, le voy a decir: organízalos en categorías de progreso, recomendaciones e impacto.
245
+
246
+ 00:05:01.950 --> 00:05:07.260
247
+ E incluso con lo que ya aprendí, voy a decirle: cinco puntos
248
+
249
+ 00:05:07.260 --> 00:05:19.340
250
+ clave del reporte de cambio climático... UK. Voy a poner acá la etiqueta,
251
+
252
+ 00:05:19.340 --> 00:05:23.240
253
+ la copio, me voy hasta el final, la pego y la cierro.
254
+
255
+ 00:05:23.240 --> 00:05:26.460
256
+ Y con eso ya le estoy diciendo que los puntos inician ahí y
257
+
258
+ 00:05:26.460 --> 00:05:33.660
259
+ que quiero que los organice en esto. Vamos a enviarlo... Y el
260
+
261
+ 00:05:33.660 --> 00:05:36.480
262
+ prompt va a hacer que empiece a pensar, porque estamos en el modelo
263
+
264
+ 00:05:36.480 --> 00:05:42.700
265
+ thinking. Pensó por seis segundos y tenemos el resultado. Progreso está acá,
266
+
267
+ 00:05:42.700 --> 00:05:48.860
268
+ recomendaciones está acá, impacto están acá. Tal cual, lo que yo le pasé
269
+
270
+ 00:05:48.860 --> 00:05:52.400
271
+ arriba lo acabo de clasificar. Vamos a copiar este resultado y nos
272
+
273
+ 00:05:52.400 --> 00:05:56.180
274
+ vamos a ir a un nuevo chat. Acá le voy a decir: «A
275
+
276
+ 00:05:56.180 --> 00:06:07.040
277
+ partir de los hallazgos del reporte de progreso en adaptación al cambio
278
+
279
+ 00:06:07.040 --> 00:06:19.170
280
+ climático...OK, voy a poner «A partir de los siguientes hallazgos». Dos puntos. Le
281
+
282
+ 00:06:19.170 --> 00:06:24.430
283
+ voy a poner «Hallazgos». Voy a cerrar. Voy a abrir de nuevo
284
+
285
+ 00:06:24.430 --> 00:06:29.990
286
+ «Hallazgos». Voy a cerrar. Y acá, dentro de ese bloque, voy a poner
287
+
288
+ 00:06:29.990 --> 00:06:34.970
289
+ la clasificación que ya tengo. Le voy a pedir que me haga
290
+
291
+ 00:06:34.970 --> 00:06:40.850
292
+ un resumen justo como lo que queremos. Entonces, por acá tengo mi prompt
293
+
294
+ 00:06:40.850 --> 00:06:44.410
295
+ y es: Escribe un resumen de cien palabras enfocado en las soluciones
296
+
297
+ 00:06:44.410 --> 00:06:48.710
298
+ más viables. Y le doy a Enviar. De nuevo el modelo va a
299
+
300
+ 00:06:48.710 --> 00:06:51.810
301
+ ponerse a pensar y nos va a dar el resultado. En este
302
+
303
+ 00:06:51.810 --> 00:06:55.310
304
+ caso, vemos que está creando el resumen, que lo debe hacer en español.
305
+
306
+ 00:06:55.310 --> 00:06:59.310
307
+ Tuvo dos pasos que tuvo que pensar para llegar acá, y acá
308
+
309
+ 00:06:59.310 --> 00:07:03.430
310
+ me dice: Las soluciones más viables combinan dirección clara y ejecución rigurosa. Primero,
311
+
312
+ 00:07:03.430 --> 00:07:06.330
313
+ fijar objetivos y metas medibles por sector ligados a hitos anuales y
314
+
315
+ 00:07:06.330 --> 00:07:12.330
316
+ presupuestos. Segundo, crear una coordinación interdepartamental fuerte con mandato en resiliencia y rutas
317
+
318
+ 00:07:12.330 --> 00:07:18.130
319
+ de decisiones rápidas. Tercero, mainstreaming de la adaptación en planifi-- en planificación,
320
+
321
+ 00:07:18.130 --> 00:07:23.490
322
+ spend review, regulación, etc., etc., etc. Me da un cuarto punto y con
323
+
324
+ 00:07:23.490 --> 00:07:27.970
325
+ eso termina. Lo importante de este proceso es que llegamos a un
326
+
327
+ 00:07:27.970 --> 00:07:31.400
328
+ resumen. Llegamos a un resumen de cien palabras. ¿Lo pudimos haber hecho en
329
+
330
+ 00:07:31.400 --> 00:07:36.990
331
+ un solo chat? Sí. ¿Cuál es el problema? Que estamos subiendo tres
332
+
333
+ 00:07:36.990 --> 00:07:40.250
334
+ archivos, que la ventana de contexto va a ir creciendo, que eso puede
335
+
336
+ 00:07:40.250 --> 00:07:44.710
337
+ inducir a más errores, alucinaciones o que se le olvide instrucciones. Y,
338
+
339
+ 00:07:44.710 --> 00:07:49.250
340
+ en este caso, como hicimos cada uno de los prompts, incluso podemos detallar
341
+
342
+ 00:07:49.250 --> 00:07:53.770
343
+ cada una de esas, esas estaciones para que el resultado sea lo
344
+
345
+ 00:07:53.770 --> 00:07:57.730
346
+ más óptimo posible para seguir a la siguiente estación y llegar a un
347
+
348
+ 00:07:57.730 --> 00:08:02.550
349
+ resultado aún más preciso de lo que buscamos. En prompt chaining lo
350
+
351
+ 00:08:02.550 --> 00:08:06.450
352
+ bueno es que cada paso literalmente es un prompt que podemos iterar hasta
353
+
354
+ 00:08:06.450 --> 00:08:10.070
355
+ que lleguemos al prompt exacto y optimizar cada uno de esos pasos
356
+
357
+ 00:08:10.070 --> 00:08:13.930
358
+ para asegurar siempre que vamos a sacar la misma calidad de coche al
359
+
360
+ 00:08:13.930 --> 00:08:15.410
361
+ final de la línea de producción.
362
+
16-Creación de agentes personalizados con IA para empresas.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:014ecc5e4aca8c7070f3904ec67bc5be98e98ac0bd32ba0ee69e27af11a8606a
3
+ size 593883121
16-Creación de agentes personalizados con IA para empresas.sub.vtt ADDED
@@ -0,0 +1,806 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.660 --> 00:00:04.280
4
+ Hasta el momento has aprendido varias técnicas de prompting que te permiten solucionar
5
+
6
+ 00:00:04.280 --> 00:00:08.220
7
+ diferentes tipos de problemas. Quiero que paremos un segundo para ver un
8
+
9
+ 00:00:08.220 --> 00:00:13.040
10
+ par de herramientas que tenemos disponibles cuando trabajamos con Claude, ChatGPT, Gemini o
11
+
12
+ 00:00:13.040 --> 00:00:17.980
13
+ Microsoft Copilot. Estas herramientas te van a permitir controlar otras cosas dentro
14
+
15
+ 00:00:17.980 --> 00:00:22.060
16
+ de cómo la inteligencia artificial lee tus prompts y los ejecuta, pero también
17
+
18
+ 00:00:22.060 --> 00:00:25.580
19
+ te va a dar un superpoder más, y es escalar estos prompts
20
+
21
+ 00:00:25.580 --> 00:00:29.240
22
+ a procesos que puedes automatizar dentro de tu empresa. Vamos a empezar con
23
+
24
+ 00:00:29.240 --> 00:00:32.439
25
+ Microsoft Copilot, y en especial vamos a empezar acá porque es un
26
+
27
+ 00:00:32.439 --> 00:00:38.420
28
+ poco diferente a OpenAI, a Claude y a Gemini, solo porque Microsoft Copilot
29
+
30
+ 00:00:38.420 --> 00:00:42.220
31
+ no tiene un modelo propietario de ellos. Recordemos que por detrás usan
32
+
33
+ 00:00:42.220 --> 00:00:47.430
34
+ los modelos de OpenAI, que es GPT-4 y GPT-5. Pero aun así tenemos
35
+
36
+ 00:00:47.430 --> 00:00:52.660
37
+ un playground donde podemos hacer un poco más de cosas que dentro
38
+
39
+ 00:00:52.660 --> 00:00:56.580
40
+ de las otras herramientas no vamos a tener disponibles solo porque Microsoft se
41
+
42
+ 00:00:56.580 --> 00:00:59.640
43
+ integra muy bien con toda su suite de trabajo. Voy a estarte
44
+
45
+ 00:00:59.640 --> 00:01:03.220
46
+ mostrando todas las herramientas y recuerda que abajo en los recursos tienes los
47
+
48
+ 00:01:03.220 --> 00:01:07.700
49
+ enlaces a cada una de ellas. Entonces, cuando yo mencione Microsoft Copilot,
50
+
51
+ 00:01:07.700 --> 00:01:12.180
52
+ Copilot Studio o cualquier playground, recuerda revisar en los recursos para poder acceder
53
+
54
+ 00:01:12.180 --> 00:01:16.360
55
+ a estas herramientas. Vamos a empezar con Microsoft Copilot. Cuando entramos a
56
+
57
+ 00:01:16.360 --> 00:01:20.840
58
+ Copilot, lo primero que vemos es esta Welcome y esta caja de texto
59
+
60
+ 00:01:20.840 --> 00:01:23.899
61
+ en donde ya hemos interactuado un poco durante el curso y vamos
62
+
63
+ 00:01:23.900 --> 00:01:28.780
64
+ a ver una parte que se llama Agentes. Acá vamos a aclarar algo.
65
+
66
+ 00:01:28.780 --> 00:01:33.860
67
+ Los agentes, en general en inteligencia artificial, no es exactamente lo que
68
+
69
+ 00:01:33.860 --> 00:01:37.920
70
+ vamos a ver acá. Dentro de otras herramientas, esto se puede llamar un
71
+
72
+ 00:01:37.920 --> 00:01:42.899
73
+ GPT o puede llamarse un proyecto en Claude. En Microsoft lo llamamos
74
+
75
+ 00:01:42.900 --> 00:01:47.180
76
+ agentes, no es la definición formal de agentes de inteligencia artificial. Ya vamos
77
+
78
+ 00:01:47.180 --> 00:01:51.080
79
+ a ver cómo logramos que estos agentes sí se conviertan realmente en
80
+
81
+ 00:01:51.080 --> 00:01:55.280
82
+ un agente de inteligencia artificial. Pues ya que tenemos en cuenta eso, vemos
83
+
84
+ 00:01:55.280 --> 00:01:59.760
85
+ Agentes y yo puedo explorar diferentes agentes como el researcher o el
86
+
87
+ 00:01:59.760 --> 00:02:05.440
88
+ analista, que básicamente son chats de Microsoft Copilot con un prompt que los
89
+
90
+ 00:02:05.440 --> 00:02:09.820
91
+ especializa en algo que nosotros determinamos, en este caso, en ir a
92
+
93
+ 00:02:09.820 --> 00:02:13.940
94
+ buscar contenido en internet y hacer una investigación o en hacer análisis de
95
+
96
+ 00:02:13.940 --> 00:02:19.320
97
+ datos. Y podemos ver otros más dentro de, eh, el store que
98
+
99
+ 00:02:19.320 --> 00:02:22.720
100
+ tiene de agentes, pero también podemos crear uno, que esto es lo más
101
+
102
+ 00:02:22.720 --> 00:02:28.260
103
+ importante o lo más interesante que tenemos acá, donde yo puedo describir
104
+
105
+ 00:02:28.260 --> 00:02:30.240
106
+ un poco qué es lo que quiero que haga mi agente o lo
107
+
108
+ 00:02:30.240 --> 00:02:34.240
109
+ puedo configurar tal cual. Y cuando lo voy a configurar, yo le
110
+
111
+ 00:02:34.240 --> 00:02:37.240
112
+ voy a poner un nombre, le voy a poner un-- una descripción, pero
113
+
114
+ 00:02:37.240 --> 00:02:41.260
115
+ sobre todo le voy a poner unas instrucciones. Todos los prompts que
116
+
117
+ 00:02:41.260 --> 00:02:46.290
118
+ hemos ido trabajando, esos prompts son los que yo colocaría en Instrucciones. Entonces,
119
+
120
+ 00:02:46.290 --> 00:02:53.560
121
+ yo le puedo decir: «Actúa como un analista de datos y cuestióname
122
+
123
+ 00:02:53.560 --> 00:02:59.080
124
+ los insights que te entregue». Y en el momento en que yo pongo
125
+
126
+ 00:02:59.080 --> 00:03:04.920
127
+ estas instrucciones, yo acá puedo probar este chat. Entonces, vamos acá a
128
+
129
+ 00:03:04.920 --> 00:03:13.840
130
+ decirle analista de datos y pongo «mi analista». Y acá tengo la opción
131
+
132
+ 00:03:13.840 --> 00:03:17.120
133
+ de probar este chat, donde voy a interactuar con él como si
134
+
135
+ 00:03:17.120 --> 00:03:21.460
136
+ estuviera abriendo un nuevo chat en Microsoft Copilot, pero siempre va a tener
137
+
138
+ 00:03:21.460 --> 00:03:29.260
139
+ cargado este prompt inicial. Entonces, yo le digo: «El calentamiento global está
140
+
141
+ 00:03:29.260 --> 00:03:34.740
142
+ matando el mundo». Y él me va a responder teniendo en cuenta que
143
+
144
+ 00:03:34.740 --> 00:03:37.740
145
+ debe actuar como analista de datos y me va a cuestionar el
146
+
147
+ 00:03:37.740 --> 00:03:40.650
148
+ insight que le acabo de entregar. Entonces, me dice: «Si el ave-- el
149
+
150
+ 00:03:40.650 --> 00:03:43.860
151
+ calentamiento global es una amenaza seria y creciente para el planeta, está
152
+
153
+ 00:03:43.860 --> 00:03:47.400
154
+ provocando ta, ta, ta, ta, ta. ¿Te interesa más como mitigar el problema,
155
+
156
+ 00:03:47.400 --> 00:03:50.980
157
+ el problema de etc., etc., etc.?» Si seguimos en las configuraciones, yo
158
+
159
+ 00:03:50.980 --> 00:03:56.360
160
+ además le puedo ingresar conocimiento. Es decir, yo puedo conectar mi OneDrive y
161
+
162
+ 00:03:56.360 --> 00:04:01.560
163
+ poner información de mi OneDrive o puedo cargarle la información que yo
164
+
165
+ 00:04:01.560 --> 00:04:06.740
166
+ tengo disponible acá. De hecho, teníamos el ejemplo de... del banco en donde
167
+
168
+ 00:04:06.740 --> 00:04:10.120
169
+ íbamos a crear una aplicación móvil y teníamos la ley de crediti--
170
+
171
+ 00:04:10.120 --> 00:04:13.980
172
+ la ley crediticia de México, y yo se la puedo subir. Y la
173
+
174
+ 00:04:13.980 --> 00:04:17.880
175
+ diferencia a subir esto al chat es que, en el chat, todos
176
+
177
+ 00:04:17.880 --> 00:04:20.959
178
+ los documentos que yo subo van a ser parte de su ventana de
179
+
180
+ 00:04:20.959 --> 00:04:25.860
181
+ contexto. En cambio, dentro de este knowledge que yo estoy dándole, lo
182
+
183
+ 00:04:25.860 --> 00:04:29.780
184
+ que estoy haciendo es darle una cantidad infinita de archivos que yo puedo
185
+
186
+ 00:04:29.780 --> 00:04:32.680
187
+ subir y que, al momento en el que yo le haga una
188
+
189
+ 00:04:32.680 --> 00:04:35.940
190
+ pregunta al chat, él va a tener que primero ir a consultar los
191
+
192
+ 00:04:35.940 --> 00:04:39.580
193
+ archivos, traer la información relevante, hacer la parte de la ventana de
194
+
195
+ 00:04:39.580 --> 00:04:44.200
196
+ contexto y con eso sí responder. Entonces, lo más importante de esta parte
197
+
198
+ 00:04:44.200 --> 00:04:48.000
199
+ es que yo puedo subir todos los archivos que yo quiera acá,
200
+
201
+ 00:04:48.000 --> 00:04:50.560
202
+ no van a ampliar la ventana de contexto, sino van a ser una
203
+
204
+ 00:04:50.560 --> 00:04:54.000
205
+ fuente de consulta. Luego, acá yo le puedo dar más herramientas. Puedo
206
+
207
+ 00:04:54.000 --> 00:04:57.900
208
+ decirle que sea capaz de escribir código, que sea capaz de escribir imágenes,
209
+
210
+ 00:04:57.900 --> 00:05:05.520
211
+ simplemente comprenderlo o con apagarlo, puedo quitar o, eh, agregar funcionalidades a
212
+
213
+ 00:05:05.520 --> 00:05:10.860
214
+ esa gente. Y luego, puedo darle opciones de cómo empezar un prompt cuando
215
+
216
+ 00:05:10.860 --> 00:05:14.500
217
+ esté en la ventana de inicio. Entonces, le puedo decir: «Hola» y
218
+
219
+ 00:05:14.500 --> 00:05:19.680
220
+ le voy a decir: «Saludo al chat». Y lo que va a pasar
221
+
222
+ 00:05:19.680 --> 00:05:23.060
223
+ es que aparecen estas opciones que, cuando yo le pico, me llena
224
+
225
+ 00:05:23.060 --> 00:05:27.580
226
+ el prompt inicial, y eso puede ser un paso para hacerlo más an-amigable
227
+
228
+ 00:05:27.580 --> 00:05:31.540
229
+ al momento de compartir a todos, eh, las personas de mi equipo.
230
+
231
+ 00:05:31.540 --> 00:05:35.400
232
+ Con esto ya puedes crear un agente de Microsoft Copilot, compartirlo en tu
233
+
234
+ 00:05:35.400 --> 00:05:38.430
235
+ equipo y que ese prompt que tú tenías no simplemente se quede
236
+
237
+ 00:05:38.430 --> 00:05:42.640
238
+ en un documento en Word, sino que se vuelva un chat que cualquiera
239
+
240
+ 00:05:42.640 --> 00:05:46.300
241
+ pueda usar. Pero hay una herramienta más de Microsoft, que es la
242
+
243
+ 00:05:46.300 --> 00:05:50.030
244
+ más interesante, que es Copilot Studio. Vamos a ir a ella. Recuerdan los
245
+
246
+ 00:05:50.030 --> 00:05:54.940
247
+ recursos donde está. En Copilot Studio, yo puedo entrar y puedo también
248
+
249
+ 00:05:54.940 --> 00:05:58.420
250
+ crear los agentes, lo mismo que acabamos de ver en Microsoft Copilot, y
251
+
252
+ 00:05:58.420 --> 00:06:01.240
253
+ de hecho, si lo creo allá, lo voy a ver disponible acá.
254
+
255
+ 00:06:01.240 --> 00:06:06.276
256
+ Pero lo más interesante es que yo puedo crear flujos, flujos de agente.Ahorita
257
+
258
+ 00:06:06.276 --> 00:06:12.256
259
+ te decía que estos agentes de Copilot Studio y de Microsoft Copilot
260
+
261
+ 00:06:12.256 --> 00:06:15.616
262
+ no eran la definición formal de agentes. Y la razón es porque siguen
263
+
264
+ 00:06:15.616 --> 00:06:20.056
265
+ siendo un chat que no pueden tomar acción sobre una herramienta. Con
266
+
267
+ 00:06:20.056 --> 00:06:24.536
268
+ Agent Flows de Copilot Studio, yo sí puedo crear un nuevo agente y
269
+
270
+ 00:06:24.536 --> 00:06:28.496
271
+ hacer que se conecte con las aplicaciones de Microsoft y tome acciones
272
+
273
+ 00:06:28.496 --> 00:06:32.996
274
+ concretas, como por ejemplo, cuando termine la reunión en Teams, tomo el transcript,
275
+
276
+ 00:06:32.996 --> 00:06:37.116
277
+ genero un resumen y lo envío al correo de todos los asistentes.
278
+
279
+ 00:06:37.116 --> 00:06:40.276
280
+ Eso sería un agente porque tomó acción. No tuve que ir yo a
281
+
282
+ 00:06:40.276 --> 00:06:44.336
283
+ decirle: «Mira, acá está el transcript y desde acá, eh, crea un
284
+
285
+ 00:06:44.336 --> 00:06:48.036
286
+ resumen y luego yo copiar ese resumen y enviarlo, eh, a los correos
287
+
288
+ 00:06:48.036 --> 00:06:50.196
289
+ de los asistentes». En este curso no me voy a ir a
290
+
291
+ 00:06:50.196 --> 00:06:53.136
292
+ detalle de cómo se hacen los Agent Flows, pero recuerda que tenemos un
293
+
294
+ 00:06:53.136 --> 00:06:56.836
295
+ curso de Copilot Studio en donde vemos a detalle todas las configuraciones
296
+
297
+ 00:06:56.836 --> 00:07:01.396
298
+ que puedes tener dentro de Copilot Studio y cómo las puedes implementar en
299
+
300
+ 00:07:01.396 --> 00:07:04.916
301
+ la suite de Microsoft en un ambiente empresarial. Ahora vamos a ir
302
+
303
+ 00:07:04.916 --> 00:07:08.576
304
+ a otra herramienta que se llama Google AI Studio. Este es un playground
305
+
306
+ 00:07:08.576 --> 00:07:10.956
307
+ muy parecido a lo que vamos a encontrar en OpenAI y en
308
+
309
+ 00:07:10.956 --> 00:07:17.056
310
+ Claude, que nos permite ciertas configuraciones adicionales directamente hacia el modelo. Ya no
311
+
312
+ 00:07:17.056 --> 00:07:20.816
313
+ estamos hablando de la herramienta como tal. Estas configuraciones no están en
314
+
315
+ 00:07:20.816 --> 00:07:25.556
316
+ Microsoft Copilot porque Copilot no tiene un modelo como tal. Usa GPT, que
317
+
318
+ 00:07:25.556 --> 00:07:28.676
319
+ es de OpenAI, pero en este playground sí lo vamos a ver.
320
+
321
+ 00:07:28.676 --> 00:07:32.436
322
+ Entonces nos vamos a Google AI Studio. Recuerda que en recursos encuentras los
323
+
324
+ 00:07:32.436 --> 00:07:37.515
325
+ enlaces para llegar acá. Y vas a encontrar una interfaz muy parecida
326
+
327
+ 00:07:37.516 --> 00:07:41.156
328
+ a Gemini. Empieza con una caja de texto y esa caja de texto
329
+
330
+ 00:07:41.156 --> 00:07:47.336
331
+ es poner el prompt y correrlo. Por ejemplo, eh, ¿cuál es la
332
+
333
+ 00:07:47.336 --> 00:07:54.536
334
+ capital de Estados Unidos? Y lo puedo correr con normalidad, pero quiero que
335
+
336
+ 00:07:54.536 --> 00:07:58.396
337
+ veas ciertos detalles. Lo primero es que tengo la capacidad de ponerle
338
+
339
+ 00:07:58.396 --> 00:08:03.396
340
+ un nombre a esto. Este nombre va a identificar como esta mesa de
341
+
342
+ 00:08:03.396 --> 00:08:08.116
343
+ experimentación, donde yo puedo ir haciendo pruebas y lo, lo importante acá
344
+
345
+ 00:08:08.116 --> 00:08:10.296
346
+ es que yo lo puedo guardar para recordar qué es lo que yo
347
+
348
+ 00:08:10.296 --> 00:08:16.116
349
+ estaba experimentando. Acá no se trata tanto de usar el LLM para
350
+
351
+ 00:08:16.116 --> 00:08:20.056
352
+ consultas como tal, sino para crear los prompts que yo quiero luego llevar
353
+
354
+ 00:08:20.056 --> 00:08:23.116
355
+ a un agente, luego llevar a un GPT, luego llevar a una
356
+
357
+ 00:08:23.116 --> 00:08:26.256
358
+ automatización con N8N. Voy a poner el nombre y le voy a poner
359
+
360
+ 00:08:26.256 --> 00:08:31.636
361
+ Test 1. Puedo ser descriptivo, es lo más importante para no olvidar
362
+
363
+ 00:08:31.636 --> 00:08:35.596
364
+ qué estoy haciendo, pero para este ejemplo pongámosle Test, y hay un par
365
+
366
+ 00:08:35.596 --> 00:08:40.216
367
+ de configuraciones que ya tengo disponibles. Primero, yo puedo ver acá, puedo
368
+
369
+ 00:08:40.216 --> 00:08:44.296
370
+ editar la respuesta del modelo, porque el punto es que esto hace parte
371
+
372
+ 00:08:44.296 --> 00:08:47.856
373
+ de la ventana de contexto, entonces yo quisiera poder complementar con lo
374
+
375
+ 00:08:47.856 --> 00:08:51.936
376
+ que no me dio el modelo. Luego yo puedo volver a correr la
377
+
378
+ 00:08:51.936 --> 00:08:55.496
379
+ respuesta en este logo que se ve acá que dice Rerun. Si
380
+
381
+ 00:08:55.496 --> 00:08:58.596
382
+ yo le pico, vuelve a correr el prompt y vuelve a darme una
383
+
384
+ 00:08:58.596 --> 00:09:01.296
385
+ respuesta, ya sea si es diferente o no, según el prompt que
386
+
387
+ 00:09:01.296 --> 00:09:07.796
388
+ yo ponga acá arriba. Puedo eliminar esta respuesta y entonces limpiar mi ventana
389
+
390
+ 00:09:07.796 --> 00:09:12.736
391
+ de contexto y volverla a correr, que acá lo tenemos. E incluso
392
+
393
+ 00:09:12.736 --> 00:09:17.436
394
+ puedo empezar a crear árboles. ¿A qué son esos árboles? Es: tengo un
395
+
396
+ 00:09:17.436 --> 00:09:21.396
397
+ prompt inicial, tengo una respuesta y quiero empezar a probar diferentes cosas
398
+
399
+ 00:09:21.396 --> 00:09:26.596
400
+ y poderlas comparar. Entonces, si yo hago esto, puedo ver la versión original
401
+
402
+ 00:09:26.596 --> 00:09:30.996
403
+ y puedo luego iterar acá y decir: Editar, y le voy a
404
+
405
+ 00:09:30.996 --> 00:09:40.036
406
+ decir, eh: Capital cultural de Estados Unidos. Lo guardo, lo puedo volver a
407
+
408
+ 00:09:40.036 --> 00:09:48.536
409
+ correr. Y esto que estoy corriendo ya parte desde el árbol que
410
+
411
+ 00:09:48.536 --> 00:09:51.876
412
+ yo acabo de crear. Entonces acá me dice: «Acá hay un debate sobre
413
+
414
+ 00:09:51.876 --> 00:09:55.186
415
+ si es Nueva York», etc., etc., etc., etc. Y luego me puedo
416
+
417
+ 00:09:55.186 --> 00:09:58.916
418
+ ir al historial, y en el historial puedo ver mi chat original, que
419
+
420
+ 00:09:58.916 --> 00:10:04.456
421
+ es Test 1, y que se guardó, pero también puedo ver la
422
+
423
+ 00:10:04.456 --> 00:10:08.736
424
+ rama que yo acabo de crear, como esa variación, que es donde yo
425
+
426
+ 00:10:08.736 --> 00:10:13.416
427
+ le dije lo de, eh, la capital de Nueva York. En este
428
+
429
+ 00:10:13.416 --> 00:10:15.976
430
+ caso no se cambió, lo vuelvo, lo vuelvo a cambiar y lo, y
431
+
432
+ 00:10:16.016 --> 00:10:20.696
433
+ lo guardo. Entonces lo voy a oír acá. Voy a decirle: «Capital
434
+
435
+ 00:10:20.696 --> 00:10:24.576
436
+ cultural de Estados Unidos». Se guardó el prompt, no lo tenía que editar.
437
+
438
+ 00:10:24.576 --> 00:10:28.636
439
+ Lo que no se editó fue la-- eh, eh, cuando corrí el
440
+
441
+ 00:10:28.636 --> 00:10:33.256
442
+ prompt. Entonces lo vuelvo a correr, y ahora voy a tener la respuesta
443
+
444
+ 00:10:33.256 --> 00:10:36.876
445
+ que estábamos viendo en el otro momento. Ahora veamos un par de
446
+
447
+ 00:10:36.876 --> 00:10:40.396
448
+ con-- de configuraciones más. Entonces voy a devolverme a chat, se crea un
449
+
450
+ 00:10:40.396 --> 00:10:43.896
451
+ nuevo chat, y yo acá puedo crear un chat temporal, que es
452
+
453
+ 00:10:43.896 --> 00:10:47.516
454
+ un chat que va a ignorar absolutamente todo lo que exista acerca de
455
+
456
+ 00:10:47.516 --> 00:10:50.996
457
+ mi cuenta, todo lo que ha podido, eh, obtener acerca de quién
458
+
459
+ 00:10:50.996 --> 00:10:54.415
460
+ soy yo y que va guardando en su memoria, y que incluso este
461
+
462
+ 00:10:54.415 --> 00:10:59.116
463
+ chat se va a borrar una vez yo termine esta sesión. Esta
464
+
465
+ 00:10:59.116 --> 00:11:02.556
466
+ función es muy útil para tener un ambiente aislado y poder probar algo
467
+
468
+ 00:11:02.556 --> 00:11:05.596
469
+ que no esté influenciado por ninguna de los otros experimentos que he
470
+
471
+ 00:11:05.596 --> 00:11:12.236
472
+ hecho. Y también tengo la opción de comparar modelos. Cuando yo comparo modelos,
473
+
474
+ 00:11:12.236 --> 00:11:15.915
475
+ me voy a ir a ver el detrás de cámaras. Acá yo
476
+
477
+ 00:11:15.915 --> 00:11:20.876
478
+ puedo escoger Gemini 2.5 Pro, que hablamos que es el modelo que se
479
+
480
+ 00:11:20.876 --> 00:11:25.236
481
+ da chance de pensar por más tiempo, y también puedo probar 2.5
482
+
483
+ 00:11:25.236 --> 00:11:30.036
484
+ Flash, que es el modelo que va a dar respuestas más instantáneas. Y
485
+
486
+ 00:11:30.036 --> 00:11:33.776
487
+ en este caso tengo la oportunidad de hacer las pruebas al mismo
488
+
489
+ 00:11:33.776 --> 00:11:37.356
490
+ tiempo sin tener que hacer lo que hicimos en clases pasadas de abrir
491
+
492
+ 00:11:37.356 --> 00:11:40.875
493
+ un nuevo chat y comparar si no veo las dos una al
494
+
495
+ 00:11:40.876 --> 00:11:44.156
496
+ lado de la otra y poder tener una decisión. Esto hace ese proceso
497
+
498
+ 00:11:44.156 --> 00:11:49.456
499
+ un poquito más fácil. Voy a decirle acá: ¿cuál es la capital
500
+
501
+ 00:11:49.456 --> 00:11:56.156
502
+ de Estados Unidos? Voy a correrlo y me va a dar la respuesta.
503
+
504
+ 00:11:56.156 --> 00:12:00.436
505
+ Entonces podemos ver que uno está pensando, el otro también. Acá está
506
+
507
+ 00:12:00.436 --> 00:12:05.316
508
+ teniendo como un paso más de pensamiento. Este fue mucho más rápido porque
509
+
510
+ 00:12:05.316 --> 00:12:10.656
511
+ el flash es de...Lo más rápido que puedas responder. Y Gemini 2.5
512
+
513
+ 00:12:10.656 --> 00:12:13.896
514
+ Pro, que si se da el tiempo de pensar se demoró más tiempo.
515
+
516
+ 00:12:13.896 --> 00:12:16.716
517
+ Y de hecho puedo ver cuánto tiempo fue: ocho segundos para el
518
+
519
+ 00:12:16.716 --> 00:12:21.496
520
+ modelo rápido, trece punto cinco segundos para el modelo más lento. Y en
521
+
522
+ 00:12:21.496 --> 00:12:25.356
523
+ una de las clases estábamos hablando de que los LLMs parten las
524
+
525
+ 00:12:25.356 --> 00:12:29.256
526
+ palabras en tokens y que la ventana de contextos se mide en tokens.
527
+
528
+ 00:12:29.256 --> 00:12:32.596
529
+ Y quiero que vean esto que tenemos en el Playground. Tenemos el
530
+
531
+ 00:12:32.596 --> 00:12:36.816
532
+ conteo de tokens que estamos teniendo en cada ventana de contexto. En este
533
+
534
+ 00:12:36.816 --> 00:12:40.436
535
+ caso nosotros usamos doscientos treinta y cinco tokens en esta consulta que
536
+
537
+ 00:12:40.436 --> 00:12:46.576
538
+ acabamos de hacer. Teniendo este comparador vamos a ver la última configuración más.
539
+
540
+ 00:12:46.576 --> 00:12:52.376
541
+ A este lado nosotros podemos ver configuraciones como temperatura, la resolución que
542
+
543
+ 00:12:52.376 --> 00:12:56.396
544
+ queremos, las imágenes que se generan, si tenemos habilitado no el thinking mode.
545
+
546
+ 00:12:56.396 --> 00:12:59.176
547
+ En este caso estamos en un modelo que tiene habilitado el thinking
548
+
549
+ 00:12:59.176 --> 00:13:04.036
550
+ mode, entonces no lo podemos deshabilitar, pero sí puedo controlar por cuánto tiempo
551
+
552
+ 00:13:04.036 --> 00:13:07.696
553
+ va a pensar que es ese thinking budget. Y el thinking budget
554
+
555
+ 00:13:07.696 --> 00:13:12.016
556
+ es cuántos tokens tiene permitido usar para ir a pensar y luego volver
557
+
558
+ 00:13:12.016 --> 00:13:15.656
559
+ con la respuesta. Entre más tokens le doy, más chance tiene de
560
+
561
+ 00:13:15.656 --> 00:13:21.556
562
+ pensar, entre menos tokens, más instantánea la respuesta. Y tengo más herramientas y
563
+
564
+ 00:13:21.556 --> 00:13:25.316
565
+ más configuraciones. En la siguiente clase vamos a ver temperatura y top
566
+
567
+ 00:13:25.316 --> 00:13:29.796
568
+ P, que son dos configuraciones que controlan la creatividad del modelo. Quiero que
569
+
570
+ 00:13:29.796 --> 00:13:33.816
571
+ veas algo, así como nosotros en los agentes de Copilot Studio pudimos
572
+
573
+ 00:13:33.816 --> 00:13:38.856
574
+ ver que le podíamos dar herramientas a nuestro modelo, acá también puedo decirle
575
+
576
+ 00:13:38.856 --> 00:13:43.636
577
+ que me dé respuestas estructuradas, que ejecute código, que pueda ir a
578
+
579
+ 00:13:43.636 --> 00:13:48.316
580
+ Google, hacer búsquedas y traer la información. Claramente, en el caso de Microsoft
581
+
582
+ 00:13:48.316 --> 00:13:53.055
583
+ Copilot sería Bing. Y todas las configuraciones que nos va a permitir
584
+
585
+ 00:13:53.056 --> 00:13:58.556
586
+ controlar mejor lo que nosotros estábamos haciendo en Gemini, pero ya nosotros decidiendo
587
+
588
+ 00:13:58.556 --> 00:14:02.136
589
+ qué hace el modelo. Por ejemplo, yo puedo irme solo a consultar
590
+
591
+ 00:14:02.136 --> 00:14:05.656
592
+ la base de entrenamiento del modelo y ver qué respuestas me da. O
593
+
594
+ 00:14:05.656 --> 00:14:09.436
595
+ saber que esa información no es actualizada, no es la verdad más
596
+
597
+ 00:14:09.436 --> 00:14:13.736
598
+ verdadera cuando hago una consulta y habilitar que vaya a buscar internet. Y
599
+
600
+ 00:14:13.736 --> 00:14:15.576
601
+ eso va a implicar que se va a demorar un poquito más
602
+
603
+ 00:14:15.576 --> 00:14:19.076
604
+ de tiempo, pero que el resultado va a ser mucho, mucho mejor. Ahora
605
+
606
+ 00:14:19.076 --> 00:14:22.256
607
+ quiero que nos vayamos a OpenAI y a Claude para ver cómo
608
+
609
+ 00:14:22.256 --> 00:14:26.156
610
+ se ven esas interfaces, pero básicamente vas a encontrar lo mismo. La opción
611
+
612
+ 00:14:26.156 --> 00:14:29.996
613
+ de comparar prompts, la opción de probar diferentes modelos entre el modelo
614
+
615
+ 00:14:29.996 --> 00:14:33.536
616
+ rápido y el modelo de problemas complejos, el que piensa un poquito más
617
+
618
+ 00:14:33.536 --> 00:14:38.856
619
+ de tiempo. Configuración de temperatura, top P y la posibilidad de agregar
620
+
621
+ 00:14:38.856 --> 00:14:42.056
622
+ o quitar herramientas que va a usar el LLM al momento de dar
623
+
624
+ 00:14:42.056 --> 00:14:46.556
625
+ una respuesta. Ahora vamos a irnos al Playground de OpenAI. Recuerda que
626
+
627
+ 00:14:46.556 --> 00:14:50.216
628
+ en la sección de recursos tienes el enlace para llegar más rápido. Cuando
629
+
630
+ 00:14:50.216 --> 00:14:53.696
631
+ llegues al Playground vas a encontrar una interfaz así. Acá arriba vas
632
+
633
+ 00:14:53.696 --> 00:14:57.556
634
+ a encontrar estos botones. Si encuentras el botón de dashboard quiere decir que
635
+
636
+ 00:14:57.556 --> 00:15:00.836
637
+ ya terminó la configuración de tu cuenta. Si no, va a aparecer
638
+
639
+ 00:15:00.836 --> 00:15:04.816
640
+ un botón que dice start building o comienza a construir. Le picas, llenas
641
+
642
+ 00:15:04.816 --> 00:15:08.236
643
+ la información y ya vas a poder ver el botón de dashboard.
644
+
645
+ 00:15:08.236 --> 00:15:10.936
646
+ Cuando das en el botón de dashboard, en este caso yo estoy en
647
+
648
+ 00:15:10.936 --> 00:15:13.616
649
+ una cuenta que no tiene una tarjeta de crédito. Entonces cuando le
650
+
651
+ 00:15:13.616 --> 00:15:17.856
652
+ voy a dar crear me dice: «Ey, debes agregar una tarjeta de crédito».
653
+
654
+ 00:15:17.856 --> 00:15:21.416
655
+ Y esto es importante. Es diferente si tienes una cuenta paga de
656
+
657
+ 00:15:21.416 --> 00:15:26.156
658
+ ChatGPT al Playground. En la cuenta paga de ChatGPT tú solo puedes usar
659
+
660
+ 00:15:26.156 --> 00:15:30.276
661
+ ChatGPT y te cobran tu suscripción mensual y ya está. En el
662
+
663
+ 00:15:30.276 --> 00:15:35.096
664
+ Playground te van a cobrar por tokens. Es muy poco, casi que un
665
+
666
+ 00:15:35.096 --> 00:15:38.356
667
+ dólar por cada millón de tokens que usas, pero te van a
668
+
669
+ 00:15:38.356 --> 00:15:41.996
670
+ cobrar por tokens. En este caso yo ya tengo una cuenta configurada con
671
+
672
+ 00:15:41.996 --> 00:15:45.096
673
+ un método de pago y cuando le doy crear, llego a una
674
+
675
+ 00:15:45.096 --> 00:15:48.276
676
+ interfaz muy parecida a la que vimos en Copilot Studio o la que
677
+
678
+ 00:15:48.276 --> 00:15:51.696
679
+ vimos en Gemini. Yo puedo poner un prompt inicial que va a
680
+
681
+ 00:15:51.696 --> 00:15:55.276
682
+ ser el prompt con el que el chat se va a configurar. Puedo
683
+
684
+ 00:15:55.276 --> 00:15:58.776
685
+ dar mensajes como usuario o puedo usarlo como si fuera un agente
686
+
687
+ 00:15:58.776 --> 00:16:01.985
688
+ o un GPT normal. Y en esta parte de acá tengo todas las
689
+
690
+ 00:16:01.985 --> 00:16:07.556
691
+ configuraciones que vimos en Gemini Studio. Lo importante acá es que estas
692
+
693
+ 00:16:07.556 --> 00:16:11.436
694
+ interfaces cambian mucho y lo que debes tú explorar cada vez que cambien
695
+
696
+ 00:16:11.436 --> 00:16:16.795
697
+ es dónde encuentras esas mismas configuraciones: temperatura, top P, cómo agregas o
698
+
699
+ 00:16:16.796 --> 00:16:21.176
700
+ quitas herramientas y, en el caso de modelos que tienen razonamiento, cuál es
701
+
702
+ 00:16:21.176 --> 00:16:25.296
703
+ su esfuerzo. En AI Studio teníamos un thinking budget que se daba
704
+
705
+ 00:16:25.296 --> 00:16:29.216
706
+ por tokens, pero en este caso tenemos solamente si queremos que el esfuerzo
707
+
708
+ 00:16:29.216 --> 00:16:32.956
709
+ sea mínimo, bajo, medio o alto, que sería muy parecido a lo
710
+
711
+ 00:16:32.956 --> 00:16:40.466
712
+ que nosotros veíamos cuando estábamos entrando a ChatGPT y teníamos acá automático, instantáneo,
713
+
714
+ 00:16:40.466 --> 00:16:44.656
715
+ thinking o pro. Ahora vamos a irnos a Claude. Y en Claude
716
+
717
+ 00:16:44.656 --> 00:16:48.116
718
+ hay algo en especial. Cuando yo llego acá estoy en la herramienta, no
719
+
720
+ 00:16:48.116 --> 00:16:51.936
721
+ en el modelo. La empresa detrás de esto es Anthropic y lo
722
+
723
+ 00:16:51.936 --> 00:16:56.416
724
+ que debo de hacer es entrar a anthropic.com. Recuerden, los recursos están los,
725
+
726
+ 00:16:56.416 --> 00:17:00.096
727
+ eh, los enlaces y ellos se esfuerzan porque uno siempre usa Claude,
728
+
729
+ 00:17:00.096 --> 00:17:04.236
730
+ entonces toca encontrar esto que dice API build with Claude. Le doy learn
731
+
732
+ 00:17:04.236 --> 00:17:07.816
733
+ more y luego acá le doy start building. Te va a pedir
734
+
735
+ 00:17:07.816 --> 00:17:12.336
736
+ iniciar sesión de nuevo porque son como si fueran cuentas separadas y llego
737
+
738
+ 00:17:12.336 --> 00:17:17.736
739
+ al workbench. Anthropic tiene algo en especial. Anthropic tiene un generador de
740
+
741
+ 00:17:17.736 --> 00:17:21.736
742
+ prompts que cuando le pico yo puedo generar los prompts a partir de
743
+
744
+ 00:17:21.736 --> 00:17:26.076
745
+ describir la tarea que quiero que se haga. Esto es igual como
746
+
747
+ 00:17:26.076 --> 00:17:29.756
748
+ si tú fueras a Claude o a ChatGPT y le dijeras: «Actúa como
749
+
750
+ 00:17:29.756 --> 00:17:33.476
751
+ prompt engineer. Tengo este problema, ayúdame a escribir un prompt». Y ese
752
+
753
+ 00:17:33.476 --> 00:17:39.556
754
+ es un gran tip para poder crear buenos prompts. Entonces, si me devuelvo,
755
+
756
+ 00:17:39.556 --> 00:17:42.716
757
+ le doy crear prompt y voy a enfrentarme a una interfaz muy
758
+
759
+ 00:17:42.716 --> 00:17:47.136
760
+ parecida. Acá pasa lo mismo, debes poner una tarjeta de crédito y te
761
+
762
+ 00:17:47.136 --> 00:17:50.155
763
+ van a cobrar por tokens. No vas a tener el cobro de
764
+
765
+ 00:17:50.156 --> 00:17:54.336
766
+ Claude porque son dos aplicaciones distintas, igual como lo es ChatGPT con el
767
+
768
+ 00:17:54.336 --> 00:17:57.496
769
+ Playground de OpenAI donde accedes a los modelos. Y lo mismo que
770
+
771
+ 00:17:57.496 --> 00:18:01.456
772
+ te decía en OpenAI, estas interfaces cambian mucho. Lo importante es que aprendas
773
+
774
+ 00:18:01.456 --> 00:18:05.776
775
+ a identificar dónde están las configuraciones que te interesan. En este momento,
776
+
777
+ 00:18:05.776 --> 00:18:10.616
778
+ esas configuraciones las encuentras en Tools y acá puedes ver las herramientas a
779
+
780
+ 00:18:10.616 --> 00:18:13.636
781
+ las que les puedes dar acceso. Y en esta parte donde dice
782
+
783
+ 00:18:13.636 --> 00:18:17.776
784
+ Model Settings, puedes ver los modelos que puedes usar y acá vas a
785
+
786
+ 00:18:17.776 --> 00:18:20.636
787
+ ver todas las versiones de modelos que hay entre Opus, que es
788
+
789
+ 00:18:20.636 --> 00:18:23.756
790
+ el modelo que piensa por más tiempo, y Sonnet, que es el modelo
791
+
792
+ 00:18:23.756 --> 00:18:29.776
793
+ más rápido. Temperatura, cantidad de tokens, si queremos que piense cuál es
794
+
795
+ 00:18:29.776 --> 00:18:34.216
796
+ el budget de los tokens y desde ahí correr tus prompts. Con esto
797
+
798
+ 00:18:34.216 --> 00:18:36.736
799
+ en la siguiente clase te voy a explicar qué es la temperatura
800
+
801
+ 00:18:36.736 --> 00:18:39.256
802
+ y qué es el top P, y vamos a hacer unos ejercicios en
803
+
804
+ 00:18:39.256 --> 00:18:40.976
805
+ Google AI Studio.
806
+
17-Configuración de temperatura y Top P en Google AI Studio.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:afb135a1b34239c438337a4d120b71a9809dfa88b42a2887552f87d015a0f6a6
3
+ size 280787552
17-Configuración de temperatura y Top P en Google AI Studio.sub.vtt ADDED
@@ -0,0 +1,413 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.100 --> 00:00:03.670
4
+ ¿Alguna vez has intentado hacer un café dos veces y te dan dos
5
+
6
+ 00:00:03.670 --> 00:00:08.740
7
+ resultados totalmente distintos? Ah, una vez puede quedar perfecto, pero otras veces
8
+
9
+ 00:00:08.740 --> 00:00:12.540
10
+ puede que quede muy fuerte o quede aguado o simplemente el sabor no
11
+
12
+ 00:00:12.540 --> 00:00:16.000
13
+ esté en el lugar que querías. Al final, cuando haces un café
14
+
15
+ 00:00:16.000 --> 00:00:20.090
16
+ tienes varias variables que controlan el resultado final y lo mismo pasa con
17
+
18
+ 00:00:20.090 --> 00:00:24.080
19
+ la inteligencia artificial. Imagina que estás usando Gemini para escribir un correo
20
+
21
+ 00:00:24.080 --> 00:00:27.580
22
+ para un cliente y ya tienes el prompt perfecto con el que tienes
23
+
24
+ 00:00:27.580 --> 00:00:31.140
25
+ resultados profesionales. Lo que pasa es que unos días da los resultados
26
+
27
+ 00:00:31.140 --> 00:00:37.660
28
+ que tú esperas, pero otras veces simplemente da resultados muy creativos o no
29
+
30
+ 00:00:37.660 --> 00:00:40.900
31
+ da en el formato que le pediste originalmente. No has hecho nada.
32
+
33
+ 00:00:40.900 --> 00:00:44.260
34
+ El prompt no ha cambiado. ¿Qué es lo que está pasando? Acá tienen
35
+
36
+ 00:00:44.260 --> 00:00:47.680
37
+ que haber dos controles que son medio invisibles en la inteligencia artificial,
38
+
39
+ 00:00:47.680 --> 00:00:51.940
40
+ pero que tenemos acceso a ellos cuando estamos interactuando con el playground de
41
+
42
+ 00:00:51.940 --> 00:00:55.440
43
+ estas herramientas. En este caso voy a mostrarte estos ejemplos en Google
44
+
45
+ 00:00:55.440 --> 00:01:00.240
46
+ AI Studio. Empecemos con la temperatura. La temperatura básicamente es como un termómetro
47
+
48
+ 00:01:00.240 --> 00:01:04.000
49
+ alrededor de la creatividad que tiene el modelo al momento de generar
50
+
51
+ 00:01:04.000 --> 00:01:08.360
52
+ el texto a partir de tu prompt. Bajos valores empiezan a dar resultados
53
+
54
+ 00:01:08.360 --> 00:01:12.300
55
+ bastante consistentes, es decir, cada vez que lo usas el resultado es
56
+
57
+ 00:01:12.300 --> 00:01:16.420
58
+ muy, muy parecido. Siempre es el mismo formato, siempre es acerca de la
59
+
60
+ 00:01:16.420 --> 00:01:21.820
61
+ misma información y logra tener consistencia. Pero cuando lo aumentas, de repente
62
+
63
+ 00:01:21.820 --> 00:01:24.980
64
+ los resultados pueden variar mucho porque al final es la temperatura de la
65
+
66
+ 00:01:24.980 --> 00:01:29.360
67
+ creatividad. En algunos casos la consistencia va a ser apreciada, sobre todo
68
+
69
+ 00:01:29.360 --> 00:01:34.860
70
+ cuando estamos buscando más precisión. Pero en otros casos esa consistencia puede resultar
71
+
72
+ 00:01:34.860 --> 00:01:38.220
73
+ algo que nos sorprende, sobre todo en los trabajos en donde queremos
74
+
75
+ 00:01:38.220 --> 00:01:43.580
76
+ que haya un trabajo más creativo. Por ejemplo, cuando queremos crear títulos acerca
77
+
78
+ 00:01:43.580 --> 00:01:47.220
79
+ de un vídeo, de un artículo que escribimos, publicaciones en redes sociales.
80
+
81
+ 00:01:47.220 --> 00:01:52.180
82
+ Ahí la creatividad importa. Pero si estamos haciendo un reporte financiero, acá lo
83
+
84
+ 00:01:52.180 --> 00:01:55.220
85
+ que más importa es la consistencia. Pero para eso vamos a ir
86
+
87
+ 00:01:55.220 --> 00:01:58.960
88
+ a un ejemplo. Tengo el siguiente prompt y lo vamos a llevar a
89
+
90
+ 00:01:58.960 --> 00:02:02.840
91
+ Google AI Studio y vamos a hacer las pruebas. Vamos a hacer
92
+
93
+ 00:02:02.840 --> 00:02:06.790
94
+ las pruebas en mover la temperatura a dos lugares extremos para poder ver
95
+
96
+ 00:02:06.790 --> 00:02:11.859
97
+ cómo cambia y, a partir de esos resultados, tener una forma de
98
+
99
+ 00:02:11.860 --> 00:02:16.220
100
+ ir probando cuál es la temperatura correcta según lo que nosotros queremos realizar.
101
+
102
+ 00:02:16.220 --> 00:02:20.210
103
+ En este caso voy a empezar con una temperatura de cero punto...
104
+
105
+ 00:02:20.210 --> 00:02:23.160
106
+ cero cinco y el prompt que voy a probar es: «Genera un cuento
107
+
108
+ 00:02:23.160 --> 00:02:26.680
109
+ que se parezca a La Caperucita Roja, pero tu propia versión. Tienes
110
+
111
+ 00:02:26.680 --> 00:02:30.280
112
+ doscientos cincuenta caracteres». Vamos a copiarlo porque la prueba la vamos a hacer
113
+
114
+ 00:02:30.280 --> 00:02:34.340
115
+ también con Temperatura uno. Lo corremos y me dice: «En un bosque,
116
+
117
+ 00:02:34.340 --> 00:02:38.900
118
+ Caperucita Verde llevaba pastel a su abuela. Un zorro astuto la engañó. La
119
+
120
+ 00:02:38.900 --> 00:02:42.660
121
+ abuela y la Caperucita se salvaron gracias a un leñador». Y me
122
+
123
+ 00:02:42.660 --> 00:02:46.920
124
+ generó una imagen, que vemos acá. Y a esto le vamos a decir
125
+
126
+ 00:02:46.920 --> 00:02:54.180
127
+ Temperatura cero punto cinco. Cero punto cero cinco. Guardamos y vamos a
128
+
129
+ 00:02:54.180 --> 00:02:58.240
130
+ crear un nuevo chat para que lo podamos comparar. Mismo prompt, pero Temperatura
131
+
132
+ 00:02:58.240 --> 00:03:02.220
133
+ en uno. Correr. Y de repente acá me dice: «¡Claro! Aquí tienes
134
+
135
+ 00:03:02.220 --> 00:03:06.290
136
+ mi versión. En un bosque mágico, Caperucita Verde, una joven intrépida llevaba a
137
+
138
+ 00:03:06.290 --> 00:03:09.660
139
+ su abuela en una canasta de manzanas doradas. El lobo feroz con
140
+
141
+ 00:03:09.660 --> 00:03:15.300
142
+ astucia intentó engañarla, pero Caperucita, con valentía, sin miedo, le pidió un acertijo.
143
+
144
+ 00:03:15.300 --> 00:03:18.400
145
+ El lobo, frustrado, al no saberlo, huyó, y la abuela y Caperucita
146
+
147
+ 00:03:18.400 --> 00:03:23.100
148
+ celebraron con manzanas y risas». Y de hecho me generó dos imágenes a
149
+
150
+ 00:03:23.100 --> 00:03:28.400
151
+ partir de esta historia. Yo creo que acá ya vemos bastante como
152
+
153
+ 00:03:28.400 --> 00:03:34.100
154
+ esa creatividad aumentó. Y esa creatividad no solamente se trata de innovar, porque
155
+
156
+ 00:03:34.100 --> 00:03:37.920
157
+ al final no está innovando, sigue siendo un cuento demasiado parecido a
158
+
159
+ 00:03:37.920 --> 00:03:41.980
160
+ la Caperucita Roja, pero de repente ya no le importó mucho que tuviera
161
+
162
+ 00:03:41.980 --> 00:03:47.220
163
+ doscientos cincuenta caracteres. Hizo algo más largo que eso y fue más
164
+
165
+ 00:03:47.220 --> 00:03:52.040
166
+ creativo en desarrollar la historia. Entonces, esta creatividad también tiende a hacer a
167
+
168
+ 00:03:52.040 --> 00:03:55.340
169
+ que no necesariamente va a seguir al pie de la letra el
170
+
171
+ 00:03:55.340 --> 00:03:59.940
172
+ prompt que le estamos dando. Tiene libertades para tomar decisiones e ir un
173
+
174
+ 00:03:59.940 --> 00:04:07.500
175
+ poquito más allá. Este lo vamos a guardar como Temperatura una. Y
176
+
177
+ 00:04:07.500 --> 00:04:12.780
178
+ lo guardamos. Y acá lo podemos comparar en nuestro historial. Si yo actualizo,
179
+
180
+ 00:04:12.780 --> 00:04:17.220
181
+ tengo tempora-- temperatura cero punto cinco y puedo ver el cuento que
182
+
183
+ 00:04:17.220 --> 00:04:23.680
184
+ me generó, muy básico. Temperatura uno. Puedo ver el cuento más avanzado que
185
+
186
+ 00:04:23.680 --> 00:04:27.800
187
+ me generó. Mismo prompt, lo puedo experimentar en dos lugares y desde
188
+
189
+ 00:04:27.800 --> 00:04:32.140
190
+ ahí puedo saber cuál es la temperatura exacta. Puedo ir moviendo entre cero
191
+
192
+ 00:04:32.140 --> 00:04:35.940
193
+ y uno para ver qué cambios va generando, pero una buena regla
194
+
195
+ 00:04:35.940 --> 00:04:40.800
196
+ de dedo que puedes tener es: si estás haciendo algo que necesita consistencia,
197
+
198
+ 00:04:40.800 --> 00:04:45.640
199
+ que necesita precisión, temperaturas bajas van a ser mejor. Por ejemplo, en
200
+
201
+ 00:04:45.640 --> 00:04:49.280
202
+ una de las clases estábamos analizando la ley y estábamos pidiéndole que nos
203
+
204
+ 00:04:49.280 --> 00:04:53.020
205
+ diera las referencias exactas de los textos que nos estaba entregando. Y
206
+
207
+ 00:04:53.020 --> 00:04:57.800
208
+ vimos que, aunque nos dio la referencia exacta, no nos lo dijo exactamente
209
+
210
+ 00:04:57.800 --> 00:05:01.580
211
+ como estaba en el PDF. En este caso, bajar la temperatura para
212
+
213
+ 00:05:01.580 --> 00:05:04.860
214
+ este caso de uso sería muy útil. Pero si vamos a hacer, de
215
+
216
+ 00:05:04.860 --> 00:05:09.780
217
+ nuevo, publicaciones para redes sociales, la temperatura más alta va a ser
218
+
219
+ 00:05:09.780 --> 00:05:14.460
220
+ muy importante. Imaginémonos un caso intermedio. ¿Qué pasa si quiero hacer una publicación
221
+
222
+ 00:05:14.460 --> 00:05:20.920
223
+ de redes sociales basándome en un artículo científico? En ese caso, ni
224
+
225
+ 00:05:20.920 --> 00:05:23.540
226
+ el cero ni el uno nos va a convenir, y vamos a tener
227
+
228
+ 00:05:23.540 --> 00:05:27.580
229
+ que experimentar con los números intermedios para ver en qué punto conserva
230
+
231
+ 00:05:27.580 --> 00:05:32.620
232
+ la precisión que buscamos, pero es suficientemente creativo para la tarea que le
233
+
234
+ 00:05:32.620 --> 00:05:35.900
235
+ estamos dando. Ahora vamos a ir con el siguiente valor y lo
236
+
237
+ 00:05:35.900 --> 00:05:40.620
238
+ vamos a hacer exactamente con el mismo prompt. Top-P. El Top-P lo encontramos
239
+
240
+ 00:05:40.620 --> 00:05:45.080
241
+ en la parte avanzada de las configuraciones y se ve acá como
242
+
243
+ 00:05:45.080 --> 00:05:48.300
244
+ Top-P. Y lo que va a hacer es que recordemos que al final
245
+
246
+ 00:05:48.300 --> 00:05:51.900
247
+ esto es un modelo que va a predecir cuál es la palabra
248
+
249
+ 00:05:51.900 --> 00:05:54.840
250
+ que debería ir después de la frase que nosotros dimos basado en el
251
+
252
+ 00:05:54.840 --> 00:05:57.880
253
+ modelo de atención, en la-- en toda la ventana de contexto que
254
+
255
+ 00:05:57.880 --> 00:06:02.620
256
+ tiene. Top-P lo que va a limitar es cuáles son el mundo de
257
+
258
+ 00:06:02.620 --> 00:06:05.760
259
+ palabras al que va a acceder para poder crear el mensaje que
260
+
261
+ 00:06:05.760 --> 00:06:11.992
262
+ está creando en este caso.Entonces, vamos a tener más diversidad de palabras cuando
263
+
264
+ 00:06:11.992 --> 00:06:15.952
265
+ tenemos un Top-P alto, es decir, no van a ser tan repetitivas
266
+
267
+ 00:06:15.952 --> 00:06:18.852
268
+ las palabras que usa o va a usar más sinónimos, va a sonar
269
+
270
+ 00:06:18.852 --> 00:06:23.612
271
+ más sofisticado. Y cuando tenemos un Top-P muy bajo, va a irse
272
+
273
+ 00:06:23.612 --> 00:06:26.652
274
+ a lo más seguro, a lo que es más probable, va a tener
275
+
276
+ 00:06:26.652 --> 00:06:30.732
277
+ menos variedad de palabras. Hagamos el mismo ejercicio y empecemos con nuestro
278
+
279
+ 00:06:30.732 --> 00:06:37.712
280
+ prompt diciéndole un Top-P de cero punto cero cinco. Lo corremos, vamos a
281
+
282
+ 00:06:37.712 --> 00:06:43.572
283
+ ir guardándolo y le vamos a decir acá: «Top... P, cero punto
284
+
285
+ 00:06:43.572 --> 00:06:48.532
286
+ cinco». Y me dice: «En un, en un bosque, Caperucita Verde llevaba pastel
287
+
288
+ 00:06:48.532 --> 00:06:52.772
289
+ a su abuela». De hecho, acá se comió-- «Llevaba un pastel», no
290
+
291
+ 00:06:52.772 --> 00:06:55.872
292
+ dijo. «Llevaba pastel a su abuela. Un zorro astuto la engañó y la
293
+
294
+ 00:06:55.872 --> 00:07:00.812
295
+ abuela y la Caperucita se salvaron gracias a un leñador». Puede parecerse
296
+
297
+ 00:07:00.812 --> 00:07:04.992
298
+ mucho lo que pasa cuando tenemos temperatura baja versus lo que tenemos con
299
+
300
+ 00:07:04.992 --> 00:07:09.452
301
+ Top-P bajo. En tareas más complejas vamos a ver más diferencias, pero
302
+
303
+ 00:07:09.452 --> 00:07:13.591
304
+ el punto es que estamos limitando la creatividad del modelo. En temperatura, literalmente,
305
+
306
+ 00:07:13.591 --> 00:07:16.392
307
+ estamos viendo qué tanto se va a cernir por el prompt que
308
+
309
+ 00:07:16.392 --> 00:07:19.412
310
+ le estamos dando. En Top-P, la creatividad va a ser guiada por la
311
+
312
+ 00:07:19.412 --> 00:07:23.952
313
+ cantidad de palabras a la que tiene acceso. Y lo estamos guardando
314
+
315
+ 00:07:23.952 --> 00:07:26.782
316
+ con el fin de poder comparar las versiones. Vamos a crear una nueva
317
+
318
+ 00:07:26.782 --> 00:07:34.792
319
+ y en este caso vamos a tener nuestro prompt con un Top-P
320
+
321
+ 00:07:34.792 --> 00:07:40.572
322
+ de uno. Lo corremos y miren, en este caso que tiene temperatura uno,
323
+
324
+ 00:07:40.572 --> 00:07:44.012
325
+ Top-P uno, ya incluso se inventó un nombre. «Luna iba por el
326
+
327
+ 00:07:44.012 --> 00:07:46.572
328
+ bosque por una cesta con su abuela. El lobo la siguió hasta la
329
+
330
+ 00:07:46.572 --> 00:07:51.262
331
+ casa, lobo disfrazado. Intentó engañar a Luna, pero ella notó algo extraño.
332
+
333
+ 00:07:51.262 --> 00:07:55.252
334
+ "Abuela, qué ojos tan grandes tienes", dijo Luna». Hizo un cuento mucho más
335
+
336
+ 00:07:55.252 --> 00:08:06.512
337
+ sofisticado. Vamos a ponerlo acá como «Top uno». Top-P uno. También podemos
338
+
339
+ 00:08:06.512 --> 00:08:10.052
340
+ combinar las dos configuraciones. Yo puedo llegar acá a crear un nuevo chat
341
+
342
+ 00:08:10.052 --> 00:08:13.192
343
+ y decir: «Voy a tener un, una temperatura de cero punto cinco
344
+
345
+ 00:08:13.192 --> 00:08:17.812
346
+ y un Top-P de cero punto cinco. De cero punto cero cinco». Mismo
347
+
348
+ 00:08:17.812 --> 00:08:20.352
349
+ prompt. Y lo que va a pasar es que va a ser
350
+
351
+ 00:08:20.352 --> 00:08:23.772
352
+ muy poco creativo y va a usar el universo de palabras más acotado
353
+
354
+ 00:08:23.772 --> 00:08:29.552
355
+ que tiene. Van a haber muchas recomendaciones que dicen: «Si mueves la
356
+
357
+ 00:08:29.552 --> 00:08:33.572
358
+ temperatura, no muevas el Top-P. Si mueves el Top-P, no muevas la temperatura».
359
+
360
+ 00:08:33.572 --> 00:08:37.332
361
+ La realidad es que yo no sigo esas recomendaciones sin antes intentarlo
362
+
363
+ 00:08:37.332 --> 00:08:40.872
364
+ para el problema que estoy tratando de solucionar. Volviendo a lo que les
365
+
366
+ 00:08:40.872 --> 00:08:44.872
367
+ decía antes, un reporte financiero en donde quiero precisión y exactitud y
368
+
369
+ 00:08:44.872 --> 00:08:50.512
370
+ estoy buscando más un análisis que el hecho de inventarse algo, yo bajo
371
+
372
+ 00:08:50.512 --> 00:08:54.132
373
+ mucho la temperatura y bajo mucho el Top-P. Y en trabajos creativos,
374
+
375
+ 00:08:54.132 --> 00:08:57.492
376
+ dependiendo de lo que quiero hacer a nivel creativo, juego con las dos
377
+
378
+ 00:08:57.552 --> 00:09:00.791
379
+ para lograr el resultado que quiero. En este caso, en un bosque,
380
+
381
+ 00:09:00.792 --> 00:09:04.232
382
+ Caperucita Verde llevaba pastel a su abuela, un zorro astuto la engañó, la
383
+
384
+ 00:09:04.232 --> 00:09:07.052
385
+ abuela y Caperucita se salvaron. Gracias a un leñador. Ya estuvo, se
386
+
387
+ 00:09:07.052 --> 00:09:13.712
388
+ acabó. Vamos a poner acá: «Temp cero punto cero cinco, Top-P cero punto
389
+
390
+ 00:09:13.712 --> 00:09:21.232
391
+ cero cinco». Guardar. Ahí estuvo. Y tenemos acá todas las versiones que
392
+
393
+ 00:09:21.232 --> 00:09:26.052
394
+ acabamos de crear para comparar y saber cuál es la configuración correcta al
395
+
396
+ 00:09:26.052 --> 00:09:29.152
397
+ problema que estamos solucionando. Ahora te queda a ti probarlo con un
398
+
399
+ 00:09:29.152 --> 00:09:32.372
400
+ problema que tienes en tu día a día. Piensa, ¿tienes un problema que
401
+
402
+ 00:09:32.372 --> 00:09:37.652
403
+ necesita constancia y exactitud o tienes un problema creativo? Y a partir
404
+
405
+ 00:09:37.652 --> 00:09:42.092
406
+ de eso, crea estos experimentos y cuéntanos en los comentarios cómo te termina
407
+
408
+ 00:09:42.092 --> 00:09:44.972
409
+ ir solucionando un problema que tú tienes en tu día a día
410
+
411
+ 00:09:44.972 --> 00:09:46.351
412
+ en tu trabajo.
413
+
19-Creación de prompts detallados para generación de imágenes con IA.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:77599947865bbd1ae12902b28f4d7633a7daeb8601ed38908069b3fcc85a7ba8
3
+ size 216809608
19-Creación de prompts detallados para generación de imágenes con IA.sub.vtt ADDED
@@ -0,0 +1,266 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.320 --> 00:00:04.770
4
+ Tú vas a abrir ChatGPT en ChatGPT 5, modelo auto, y vas a
5
+
6
+ 00:00:04.770 --> 00:00:07.500
7
+ escribir: «Genera una imagen de una oficina moderna», y lo vas a
8
+
9
+ 00:00:07.500 --> 00:00:12.040
10
+ enviar y vas a esperar que la imagen se genere. Ahora, ves este
11
+
12
+ 00:00:12.040 --> 00:00:17.380
13
+ resultado y cuando dices una oficina moderna, ¿es lo que te imaginabas?
14
+
15
+ 00:00:17.380 --> 00:00:19.840
16
+ Puede que para algunas personas sí, en mi caso no era lo que
17
+
18
+ 00:00:19.840 --> 00:00:23.419
19
+ me imaginaba. Yo me imaginaba algo más como si estuviéramos hablando, no
20
+
21
+ 00:00:23.420 --> 00:00:26.040
22
+ sé, de la oficina de Facebook o de Google, un open space un
23
+
24
+ 00:00:26.040 --> 00:00:31.680
25
+ poco más caótico... Esto se ve como muy ordenado. Y es que
26
+
27
+ 00:00:31.680 --> 00:00:35.440
28
+ cuando nosotros estamos haciendo un prompt para comunicarle a la inteligencia artificial cómo
29
+
30
+ 00:00:35.440 --> 00:00:40.400
31
+ generar una imagen, debería ser como si nosotros estuviéramos en esa escena
32
+
33
+ 00:00:40.400 --> 00:00:44.140
34
+ y estamos hablando por teléfono con alguien y queremos que esa persona que
35
+
36
+ 00:00:44.140 --> 00:00:47.500
37
+ está al otro lado del teléfono se imagine la escena en la
38
+
39
+ 00:00:47.500 --> 00:00:52.700
40
+ que nosotros estamos presentes. Tenemos que ser tan descriptivos como sea posible. La
41
+
42
+ 00:00:52.700 --> 00:00:56.560
43
+ clave está en descomponer esa escena en la que estás presente en
44
+
45
+ 00:00:56.560 --> 00:01:01.280
46
+ tres partes. La primera es el protagonista. No vas a decir «un perro
47
+
48
+ 00:01:01.280 --> 00:01:05.260
49
+ grande». Vas a hablar del golden retriever que tiene un collar rojo,
50
+
51
+ 00:01:05.260 --> 00:01:08.780
52
+ que es de una estatura mediana, que parece tener dos años de edad
53
+
54
+ 00:01:08.780 --> 00:01:11.780
55
+ y que es muy juguetón. Es la diferencia entre decir: «Tráeme ese
56
+
57
+ 00:01:11.780 --> 00:01:14.880
58
+ vaso de la cocina», a decir: «Por favor, tráeme el vaso azul que
59
+
60
+ 00:01:14.880 --> 00:01:18.760
61
+ está al lado del microondas». La probabilidad de que ambas instrucciones traiga
62
+
63
+ 00:01:18.760 --> 00:01:24.100
64
+ el vaso azul es... Existe o puede pasar, pero con la primera instrucción
65
+
66
+ 00:01:24.100 --> 00:01:29.080
67
+ puede traerte cualquier vaso. En la segunda, estás siendo tan descriptivo que
68
+
69
+ 00:01:29.080 --> 00:01:32.140
70
+ es certero que te van a traer el vaso que estabas esperando. Y
71
+
72
+ 00:01:32.140 --> 00:01:34.960
73
+ el segundo factor en el que vas a descomponer esta escena en
74
+
75
+ 00:01:34.960 --> 00:01:38.960
76
+ la que estás presente es el estilo visual. Y quiero que pienses acerca
77
+
78
+ 00:01:38.960 --> 00:01:43.640
79
+ de este estilo visual como si fueran filtros de Instagram. ¿Cómo quieres
80
+
81
+ 00:01:43.640 --> 00:01:48.860
82
+ que se vea esa imagen que estás presenciando? ¿Como una foto realista que
83
+
84
+ 00:01:48.860 --> 00:01:52.080
85
+ acabas de tomar con tu celular? ¿O quieres que se vea como
86
+
87
+ 00:01:52.080 --> 00:01:56.320
88
+ una caricatura? ¿O quieres que se vea como un personaje de Disney? El
89
+
90
+ 00:01:56.320 --> 00:02:01.620
91
+ punto es describir lo que estás viendo a nivel de un filtro
92
+
93
+ 00:02:01.620 --> 00:02:05.280
94
+ de Instagram, como una foto vieja, como una foto que fue tomada con
95
+
96
+ 00:02:05.280 --> 00:02:09.419
97
+ un iPhone. Piensa en esto como si estuvieras pensando en el outfit
98
+
99
+ 00:02:09.419 --> 00:02:12.900
100
+ que vas a llevar para una boda. No es lo mismo que digas:
101
+
102
+ 00:02:12.900 --> 00:02:14.880
103
+ «Voy a salir a hacer ejercicio y voy a llevar ropa de
104
+
105
+ 00:02:14.880 --> 00:02:19.720
106
+ ejercicio», a decir: «Voy a tener un traje formal con corbatín, con una
107
+
108
+ 00:02:19.720 --> 00:02:24.100
109
+ camisa». Describir incluso los colores que están presentes. El estilo visual es
110
+
111
+ 00:02:24.100 --> 00:02:26.860
112
+ lo que le va a dar vida a esa imagen que estás creando.
113
+
114
+ 00:02:26.860 --> 00:02:30.120
115
+ Y el último componente que vas a usar para describir esta escena
116
+
117
+ 00:02:30.120 --> 00:02:34.600
118
+ es la composición. Y acá quiero que imagines que eres el director de
119
+
120
+ 00:02:34.600 --> 00:02:40.600
121
+ fotografía de esta película que te estás creando. La primera pregunta es
122
+
123
+ 00:02:40.600 --> 00:02:45.780
124
+ si vas a describir una cena familiar, la foto que quieres tomar, ¿esa
125
+
126
+ 00:02:45.780 --> 00:02:49.460
127
+ foto está al nivel de la mesa o quieres una foto desde
128
+
129
+ 00:02:49.460 --> 00:02:52.680
130
+ la esquina del cuarto en donde se pueda ver todas las personas presentes
131
+
132
+ 00:02:52.680 --> 00:02:57.720
133
+ y las expresiones que están haciendo? Incluso piensa en cómo está la
134
+
135
+ 00:02:57.720 --> 00:03:01.380
136
+ iluminación de ese momento que estás viviendo. La luz está entrando por la
137
+
138
+ 00:03:01.380 --> 00:03:04.900
139
+ ventana ooo la realidad es que estás en un lugar donde no
140
+
141
+ 00:03:04.900 --> 00:03:08.200
142
+ hay ventanas y todas las luces vienen de el techo y es una
143
+
144
+ 00:03:08.200 --> 00:03:13.420
145
+ luz blanca intensa que hace ver todo como muy despierto. El punto
146
+
147
+ 00:03:13.420 --> 00:03:17.980
148
+ es que compongas ese lugar que estás viviendo a partir de dónde está
149
+
150
+ 00:03:17.980 --> 00:03:22.540
151
+ ubicada la persona que está tomando la foto o está pintando o
152
+
153
+ 00:03:22.540 --> 00:03:27.520
154
+ está creando la ilustración, y empieces a darle una atmósfera a ese lugar
155
+
156
+ 00:03:27.520 --> 00:03:31.020
157
+ que, que estás presente. Y esa atmósfera se crea a partir de
158
+
159
+ 00:03:31.020 --> 00:03:34.820
160
+ los detalles. Si yo te hablo de una cafetería, te vas a imaginar
161
+
162
+ 00:03:34.820 --> 00:03:38.240
163
+ la cafetería más cercana que tienes a tu casa. Pero voy a
164
+
165
+ 00:03:38.240 --> 00:03:41.980
166
+ agregar un par de detalles. En esta cafetería están hirviendo el agua y
167
+
168
+ 00:03:41.980 --> 00:03:46.340
169
+ la tetera está sacando humo y está di-- nublando todo lo que
170
+
171
+ 00:03:46.340 --> 00:03:50.200
172
+ estás viendo en ese momento. De repente, la imagen de la cafetería de
173
+
174
+ 00:03:50.200 --> 00:03:54.160
175
+ tu casa cambió y le estás dando más detalles que te dan
176
+
177
+ 00:03:54.160 --> 00:03:58.380
178
+ una ima-- una imagen visual de esa escena que yo estoy viviendo en
179
+
180
+ 00:03:58.380 --> 00:04:02.440
181
+ ese momento. Con esto que te acabo de enseñar, volvamos a ChatGPT
182
+
183
+ 00:04:02.440 --> 00:04:06.580
184
+ y hacemos un ejercicio práctico. Podríamos pensar en una versión básica de un
185
+
186
+ 00:04:06.580 --> 00:04:11.260
187
+ prompt que sería «personas trabajando», pero ahí querría-- caeríamos en el error
188
+
189
+ 00:04:11.260 --> 00:04:16.680
190
+ del inicio de esta clase. Entonces, hagamos un prompt más elaborado. Digamos: «Genera
191
+
192
+ 00:04:16.680 --> 00:04:22.360
193
+ una imagen de cuatro profesionales diversos colaborando alrededor de una mesa redonda
194
+
195
+ 00:04:22.360 --> 00:04:27.000
196
+ con laptops y documentos». Ahí estamos hablando del protagonista. Vamos a decirle que
197
+
198
+ 00:04:27.000 --> 00:04:30.840
199
+ el estilo es de una fotografía corporativa moderna. Ese sería como el
200
+
201
+ 00:04:30.840 --> 00:04:34.680
202
+ filtro que nos estamos imaginando, el filtro de Instagram. Y vamos a hablar
203
+
204
+ 00:04:34.680 --> 00:04:37.300
205
+ de la composición, que sería una vista de un ángulo de cuarenta
206
+
207
+ 00:04:37.300 --> 00:04:40.940
208
+ y cinco grados con luz d-- natural de oficina. De por sí, la
209
+
210
+ 00:04:40.940 --> 00:04:43.980
211
+ luz natural de oficina tiende a ser un tipo de luz. Entonces,
212
+
213
+ 00:04:43.980 --> 00:04:48.720
214
+ vamos a ver cómo lo interpreta. Ahora, una pregunta: ¿fue la imagen que
215
+
216
+ 00:04:48.720 --> 00:04:53.940
217
+ te imaginaste? Para mí está muy cercana, pero, pues, esto es como
218
+
219
+ 00:04:53.940 --> 00:04:57.200
220
+ cocinar, si a la primera no funciona, tenemos que ir probando, ir dándole
221
+
222
+ 00:04:57.200 --> 00:05:01.200
223
+ feedback, diciendo más específico qué es lo que no salió bien de
224
+
225
+ 00:05:01.200 --> 00:05:04.800
226
+ la imagen que generamos. Y cuando llegamos a la imagen que esperábamos, si
227
+
228
+ 00:05:04.800 --> 00:05:07.880
229
+ quieres aprender más de prompting, pregúntale cuál hubiera sido el prompt que
230
+
231
+ 00:05:07.880 --> 00:05:13.180
232
+ debí haber usado para generar esta imagen desde un inicio. Un dato más
233
+
234
+ 00:05:13.180 --> 00:05:18.660
235
+ importante: trata de no ser contradictorio en tus instrucciones. Es decir, si
236
+
237
+ 00:05:18.660 --> 00:05:23.960
238
+ le dices que cree una foto realista con estilo de caricatura, eso va
239
+
240
+ 00:05:23.960 --> 00:05:27.180
241
+ a ser contradictorio. Y ahí es cuando la inteligencia artificial va a
242
+
243
+ 00:05:27.180 --> 00:05:32.230
244
+ empezar a alucinar. ¿Quieres un estilo de caricatura o quieres una foto realista?
245
+
246
+ 00:05:32.230 --> 00:05:35.520
247
+ Trata de no combinar esas cosas que podrían confundir al modelo para
248
+
249
+ 00:05:35.520 --> 00:05:39.360
250
+ llegar más al resultado que estás esperando. Es como decirle a alguien que
251
+
252
+ 00:05:39.360 --> 00:05:43.420
253
+ cante a todo volumen, pero en voz baja. No tiene sentido, ¿verdad?
254
+
255
+ 00:05:43.420 --> 00:05:45.900
256
+ Ahora quiero que en la sección de comentarios me dejes la imagen de
257
+
258
+ 00:05:45.900 --> 00:05:49.260
259
+ la escena en la que en este momento estás tomando la clase,
260
+
261
+ 00:05:49.260 --> 00:05:52.760
262
+ pero que sea una imagen generada con ChatGPT. Pon la imagen y pon
263
+
264
+ 00:05:52.760 --> 00:05:53.840
265
+ el prompt que usaste.
266
+
2-Creación de prompts efectivos para análisis de documentos con IA.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f405d580976ba394c42964baa721cf5924e2f7708c59ea2a35ff517f561d7f84
3
+ size 426968740
2-Creación de prompts efectivos para análisis de documentos con IA.sub.vtt ADDED
@@ -0,0 +1,590 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.080 --> 00:00:06.160
4
+ Abre ChatGPT y escribe esta pregunta simple: explícame la fotosíntesis en tres oraciones.
5
+
6
+ 00:00:06.160 --> 00:00:09.420
7
+ Presiona enter y observa qué es lo que ocurre. Ya que lo
8
+
9
+ 00:00:09.420 --> 00:00:12.840
10
+ hiciste tú, ahora lo voy a hacer yo. Explícame qué es la fotosíntesis
11
+
12
+ 00:00:12.840 --> 00:00:17.240
13
+ en tres oraciones. Y viene la respuesta. La fotosíntesis es el proceso
14
+
15
+ 00:00:17.240 --> 00:00:20.240
16
+ mediante el cual las plantas, algas y algunas bacterias convierten la luz solar
17
+
18
+ 00:00:20.240 --> 00:00:24.080
19
+ en energía química. Utilizan el dióxido de carbono del aire y el
20
+
21
+ 00:00:24.080 --> 00:00:28.660
22
+ agua del suelo para producir glucosa, su alimento, y oxígeno como subproducto. Este
23
+
24
+ 00:00:28.660 --> 00:00:33.360
25
+ proceso ocurre principalmente en las hojas, dentro de unas estructuras llamadas cloroplastos.
26
+
27
+ 00:00:33.360 --> 00:00:36.400
28
+ Acaba de pasar lo que acabamos de pedir. En tres oraciones nos explicó
29
+
30
+ 00:00:36.400 --> 00:00:40.020
31
+ qué es la fotosíntesis. Y eso que acabamos de enviarle, esa oración
32
+
33
+ 00:00:40.020 --> 00:00:45.060
34
+ de explícame qué es la fotosíntesis en tres oraciones, se llama un prompt.
35
+
36
+ 00:00:45.060 --> 00:00:47.500
37
+ Y es el mensaje o la instrucción que nosotros le damos a
38
+
39
+ 00:00:47.500 --> 00:00:51.400
40
+ la inteligencia artificial para que de vuelta nos dé una respuesta, muy parecido
41
+
42
+ 00:00:51.400 --> 00:00:55.180
43
+ como si estuviéramos hablando con WhatsApp, con una persona, pero en este
44
+
45
+ 00:00:55.180 --> 00:00:58.640
46
+ caso estamos hablando con una máquina. ¿Qué está lo interesante? La calidad de
47
+
48
+ 00:00:58.640 --> 00:01:02.060
49
+ esa respuesta va a definirse según la calidad de cómo formules tú
50
+
51
+ 00:01:02.060 --> 00:01:07.680
52
+ la pregunta. Si eres muy vago diciendo: «Ayúdame con marketing», pues la inteligencia
53
+
54
+ 00:01:07.680 --> 00:01:10.500
55
+ artificial va a darte una respuesta igual de vaga. Va a irse
56
+
57
+ 00:01:10.500 --> 00:01:13.120
58
+ por muchos lugares y no va a saber exactamente qué es lo que
59
+
60
+ 00:01:13.120 --> 00:01:16.760
61
+ tú quieres. En cambio, si eres específico como este prompt, que es
62
+
63
+ 00:01:16.760 --> 00:01:21.860
64
+ simplemente una oración donde decimos: «Explícame la fotosíntesis en tres oraciones», pues va
65
+
66
+ 00:01:21.860 --> 00:01:24.820
67
+ a ser mucho más cercano a lo que nosotros estamos esperando. De
68
+
69
+ 00:01:24.820 --> 00:01:29.220
70
+ hecho, el resultado es exactamente a lo que esperábamos. Durante este curso quiero
71
+
72
+ 00:01:29.220 --> 00:01:33.400
73
+ que pienses sobre los LLMs como si fuera un practicante. Y el
74
+
75
+ 00:01:33.400 --> 00:01:37.260
76
+ curso, más allá de prompt engineering, va a enseñarnos cómo delegar de manera
77
+
78
+ 00:01:37.260 --> 00:01:42.040
79
+ efectiva. El tema es que cuando delegamos a una persona, es fácil
80
+
81
+ 00:01:42.040 --> 00:01:45.080
82
+ culpar a la persona por no hacer lo que nosotros esperábamos y no
83
+
84
+ 00:01:45.080 --> 00:01:49.320
85
+ reflexionar sobre cómo lo hicimos nosotros. Durante este curso vamos a ver
86
+
87
+ 00:01:49.320 --> 00:01:54.260
88
+ cuál es la forma más efectiva de ser claro, conciso y específico para
89
+
90
+ 00:01:54.260 --> 00:01:58.539
91
+ que saquemos el mayor provecho de estas herramientas. Vamos a estar trabajando
92
+
93
+ 00:01:58.540 --> 00:02:03.800
94
+ con cuatro herramientas: ChatGPT, Gemini, Claude y Microsoft Copilot. Y todo lo que
95
+
96
+ 00:02:03.800 --> 00:02:07.060
97
+ vamos a aprender va a ser aplicable en todas. Este ejercicio que
98
+
99
+ 00:02:07.060 --> 00:02:10.500
100
+ acabamos de hacer fue solo abrir ChatGPT y empezar a escribir. Si no
101
+
102
+ 00:02:10.500 --> 00:02:13.519
103
+ has creado una cuenta, quiero que la crees y vamos a hacer
104
+
105
+ 00:02:13.520 --> 00:02:16.940
106
+ el siguiente ejercicio en donde vamos a usar un reporte de McKinsey que
107
+
108
+ 00:02:16.940 --> 00:02:20.740
109
+ te dejo acá abajo en los recursos, y vamos a aprender cómo
110
+
111
+ 00:02:20.740 --> 00:02:23.620
112
+ sacar el mayor provecho a este tipo de herramientas para el uso que
113
+
114
+ 00:02:23.620 --> 00:02:26.560
115
+ todo el mundo le da, generar un resumen. Pero ¿cómo lo podemos
116
+
117
+ 00:02:26.560 --> 00:02:29.560
118
+ hacer de manera efectiva? Vamos a ver esta interfaz, que es la de
119
+
120
+ 00:02:29.560 --> 00:02:33.560
121
+ ChatGPT. Quiero que nos familiaricemos muy rápido. Tenemos una barra lateral donde
122
+
123
+ 00:02:33.560 --> 00:02:37.960
124
+ acá podemos ver, eh, nuevo chat. Ese botón lo vamos a estar usando
125
+
126
+ 00:02:37.960 --> 00:02:42.200
127
+ todo el tiempo. Buscar entre todos los chats que tenemos, librerías, hora,
128
+
129
+ 00:02:42.200 --> 00:02:47.000
130
+ GPTS y proyectos. Todas estas partes o configuraciones las vamos a ver luego.
131
+
132
+ 00:02:47.000 --> 00:02:50.400
133
+ Y en el centro tenemos una caja de texto donde podemos escribir
134
+
135
+ 00:02:50.400 --> 00:02:55.829
136
+ nuestros prompts. Y acá tenemos la opción de poder subir un archivo. Entonces,
137
+
138
+ 00:02:55.829 --> 00:02:58.340
139
+ le voy a dar en el más, le voy a agregar fotos
140
+
141
+ 00:02:58.340 --> 00:03:05.280
142
+ y archivos, y en esta parte me voy a ir a Descargas. Y
143
+
144
+ 00:03:05.280 --> 00:03:09.280
145
+ en Descargas tengo el reporte de McKinsey del estado de arte de
146
+
147
+ 00:03:09.280 --> 00:03:13.740
148
+ inteligencia artificial, que además está en inglés, y que me habla sobre cuál
149
+
150
+ 00:03:13.740 --> 00:03:17.440
151
+ es el estado de inteligencia artificial en el 2025. Este reporte es
152
+
153
+ 00:03:17.440 --> 00:03:20.300
154
+ de marzo, si no estoy mal. Y lo que vamos a hacer es
155
+
156
+ 00:03:20.300 --> 00:03:23.400
157
+ que vamos a tratar de saber qué es lo valioso de este
158
+
159
+ 00:03:23.400 --> 00:03:30.540
160
+ reporte para mí, sin necesidad de entrar a leerlo. Entonces, lo abro y
161
+
162
+ 00:03:30.540 --> 00:03:33.320
163
+ quiero que pares un momento la clase y me dejes en los
164
+
165
+ 00:03:33.320 --> 00:03:39.260
166
+ comentarios cuál sería la primera instrucción que tú harías. Escríbela en los comentarios,
167
+
168
+ 00:03:39.260 --> 00:03:43.140
169
+ déjala ahí y continúas con la clase. Mi primera instrucción va a
170
+
171
+ 00:03:43.140 --> 00:03:50.240
172
+ ser decirle de qué trata este archivo. Es más, voy a decirle este
173
+
174
+ 00:03:50.240 --> 00:03:52.960
175
+ reporte, porque, pues, yo sé que es un reporte, yo sé que
176
+
177
+ 00:03:52.960 --> 00:03:58.840
178
+ estoy subiendo, entonces lo voy a enviar y me genera la siguiente respuesta
179
+
180
+ 00:03:58.840 --> 00:04:02.160
181
+ que, de hecho, ya la terminó de hacer y me dice: «El
182
+
183
+ 00:04:02.160 --> 00:04:06.900
184
+ reporte es este, es de marzo 2025», no me había equivocado. Y analiza
185
+
186
+ 00:04:06.900 --> 00:04:10.760
187
+ cómo las empresas están adaptando su organización, procesos y talento para aprovechar
188
+
189
+ 00:04:10.760 --> 00:04:15.440
190
+ el valor de inteligencia artificial generativa y otras formas de AI. Y dice
191
+
192
+ 00:04:15.440 --> 00:04:19.440
193
+ puntos claves, habla de esos puntos claves y luego me vuelve a
194
+
195
+ 00:04:19.440 --> 00:04:23.280
196
+ decir, como en resumen, el documento muestra que la IA ya está siendo
197
+
198
+ 00:04:23.280 --> 00:04:26.620
199
+ ampliamente difundida, pero las compañías aún están en una fase temprana de
200
+
201
+ 00:04:26.620 --> 00:04:31.120
202
+ traducir ese uso impa-- en un impacto económico a gran escala, y que
203
+
204
+ 00:04:31.120 --> 00:04:34.480
205
+ el éxito depende más de cambios organizacionales y de gestión que de
206
+
207
+ 00:04:34.480 --> 00:04:37.840
208
+ la tecnología en sí. Y me dice si quiere que haga un resumen
209
+
210
+ 00:04:37.840 --> 00:04:41.620
211
+ ejecutivo en una página en español. La verdad es que de por
212
+
213
+ 00:04:41.620 --> 00:04:46.480
214
+ sí ya tenemos bastante texto, más corto que leer el reporte. Acá, si
215
+
216
+ 00:04:46.480 --> 00:04:49.640
217
+ yo veo en Sources, voy a ver de dónde viene la información
218
+
219
+ 00:04:49.640 --> 00:04:53.000
220
+ que me la está dando, pues viene del archivo que yo le subí.
221
+
222
+ 00:04:53.000 --> 00:04:56.400
223
+ Y vamos a familiarizarnos con un par de cosas. Yo acá tengo
224
+
225
+ 00:04:56.400 --> 00:05:01.400
226
+ una serie de botones en donde puedo copiar el resultado que me dio
227
+
228
+ 00:05:01.400 --> 00:05:03.760
229
+ y, por ejemplo, acá yo lo puedo pegar y tengo el resultado
230
+
231
+ 00:05:03.760 --> 00:05:09.170
232
+ exacto. Puedo decirle que fue una buena respuesta, que fue una mala respuesta.
233
+
234
+ 00:05:09.170 --> 00:05:12.700
235
+ En general, este feedback le ayuda a ChatGPT a mejorar la calidad
236
+
237
+ 00:05:12.700 --> 00:05:18.260
238
+ de sus respuestas en, en el tiempo. Puedo compartir esto, puedo generar este
239
+
240
+ 00:05:18.260 --> 00:05:22.560
241
+ texto y compartirlo en un enlace, en redes sociales, etcétera. O puedo
242
+
243
+ 00:05:22.560 --> 00:05:27.660
244
+ volverlo a generar, eh, y me dice qué modelo usó, que en clases
245
+
246
+ 00:05:27.660 --> 00:05:31.979
247
+ futuras vamos a hablar un poco sobre los modelos y más acciones.
248
+
249
+ 00:05:31.980 --> 00:05:36.640
250
+ Entonces, mi problema con este resumen es que sería lo que cualquiera me
251
+
252
+ 00:05:36.640 --> 00:05:40.400
253
+ podría decir sobre el reporte, pero al fin y al cabo, yo
254
+
255
+ 00:05:40.400 --> 00:05:43.920
256
+ hice una pregunta amplia, yo hice una pregunta vaga y me dio una
257
+
258
+ 00:05:43.920 --> 00:05:48.160
259
+ respuesta vaga. ¿Qué tal si le cuento un poquito quién soy yo
260
+
261
+ 00:05:48.160 --> 00:05:52.400
262
+ para ver si esto me, me empieza a decir más este reporte cómo
263
+
264
+ 00:05:52.400 --> 00:05:58.900
265
+ me podría ayudar? Entonces, le voy a decir: «Ok, esto fue útil,
266
+
267
+ 00:05:58.900 --> 00:06:09.424
268
+ pero quiero que me des...»Eh, los tres puntos más valiosos, valiosos para mí.
269
+
270
+ 00:06:09.424 --> 00:06:14.284
271
+ Y le voy a decir: «Te cuento de mí». Eh... Soy Juan
272
+
273
+ 00:06:14.284 --> 00:06:27.884
274
+ Pablo Rojas y soy el Chief Product Officer de Platzi, la EdTech más
275
+
276
+ 00:06:27.884 --> 00:06:42.484
277
+ grande de Latinoamérica. Nosotros nos enfocamos en enseñar... programación, inteligencia artificial, diseño,
278
+
279
+ 00:06:42.484 --> 00:06:55.304
280
+ marketing, negocios y todas las habilidades de tecnología que necesitan los profesionales de
281
+
282
+ 00:06:55.304 --> 00:06:59.184
283
+ hoy en día. Y para hacer eso tengo el siguiente mensaje que
284
+
285
+ 00:06:59.184 --> 00:07:03.064
286
+ escribí que es ok, esto es útil, pero quiero que me des tres
287
+
288
+ 00:07:03.064 --> 00:07:07.564
289
+ puntos más valiosos para mí. Y esto nos funcionó muy bien cuando
290
+
291
+ 00:07:07.564 --> 00:07:11.874
292
+ exp-- eh, pedimos que nos explicara la fotosíntesis, entonces hagámoslo acá. Pero tengo
293
+
294
+ 00:07:11.874 --> 00:07:16.384
295
+ que decirle quién soy yo, porque, pues... De hecho, hagamos esto. Me
296
+
297
+ 00:07:16.384 --> 00:07:19.444
298
+ va a ir a un nuevo chat, le voy a decir quién soy
299
+
300
+ 00:07:19.444 --> 00:07:25.724
301
+ yo. Y me va a decir: «Es una gran pregunta», pero, pues,
302
+
303
+ 00:07:25.724 --> 00:07:30.564
304
+ no sabe nada. Se fue por el lado más filosófico. Entonces, dentro de
305
+
306
+ 00:07:30.564 --> 00:07:35.843
307
+ mis chats me devuelvo a donde estaba, volvemos con nuestro querido prompt
308
+
309
+ 00:07:35.844 --> 00:07:38.444
310
+ y le voy a contar sobre mí, porque no sabe quién soy yo.
311
+
312
+ 00:07:38.444 --> 00:07:41.404
313
+ Te cuento sobre mí. Soy Juan Pablo Rojas, soy el Chief Product
314
+
315
+ 00:07:41.404 --> 00:07:44.764
316
+ Officer de Platzi, la EdTech más grande de Latinoamérica. Nosotros nos enfocamos en
317
+
318
+ 00:07:44.764 --> 00:07:49.224
319
+ enseñar programación, inteligencia artificial, diseño, marketing, negocios y todas las habilidades de
320
+
321
+ 00:07:49.224 --> 00:07:52.904
322
+ tecnología que necesitan los profesionales hoy en día. Entonces, me fui con algo
323
+
324
+ 00:07:52.904 --> 00:07:57.764
325
+ un poquito más largo. Vamos a ver qué tan útil termina siendo.
326
+
327
+ 00:07:57.764 --> 00:08:01.544
328
+ Lo enviamos. Me dio la respuesta y me dice: «Perfecto, Juan Pablo». Acá
329
+
330
+ 00:08:01.544 --> 00:08:04.584
331
+ ya me está diciendo por nombre propio y todo. «Gracias por compa--
332
+
333
+ 00:08:04.584 --> 00:08:08.104
334
+ contarme de ti, dado tu rol como Chief Product Officer en esta EdTech,
335
+
336
+ 00:08:08.104 --> 00:08:11.164
337
+ estos son los tres pun-puntos importantes». Y me dice: «El verdadero valor
338
+
339
+ 00:08:11.164 --> 00:08:14.884
340
+ del AI viene del rewiring, no en casos aislados, el talento del y
341
+
342
+ 00:08:14.884 --> 00:08:18.523
343
+ el reskilling son el cuello de botella y gobernanza y confianza en
344
+
345
+ 00:08:18.524 --> 00:08:22.564
346
+ AI son claves para escalar». Y me da como más texto, pero se
347
+
348
+ 00:08:22.564 --> 00:08:26.544
349
+ fue muy largo. Y luego me dice: «En resumen, integrar la inteligencia
350
+
351
+ 00:08:26.544 --> 00:08:31.884
352
+ artificial en la experiencia completa de aprendizaje, capate-- cap-capitalizar la ola de reskilling
353
+
354
+ 00:08:31.884 --> 00:08:35.864
355
+ masivo y diferenciarse como líderes en ética y gobernanza en AI, son
356
+
357
+ 00:08:35.864 --> 00:08:40.604
358
+ los supre-- aprendizajes más estratégicos que este reporte te aporta. ¿Quieres que te
359
+
360
+ 00:08:40.604 --> 00:08:44.303
361
+ arme una traducción de estos puntos en un plan accionable para Platzi?»
362
+
363
+ 00:08:44.364 --> 00:08:46.764
364
+ Y, pues sí, sí, quiero que me arme un plan. Acá tengo un
365
+
366
+ 00:08:46.764 --> 00:08:50.804
367
+ prompt, va a leerlo mientras nos genera la respuesta. Le digo: «Me
368
+
369
+ 00:08:50.804 --> 00:08:53.144
370
+ suena lo del plan, pero quiero que me lo des en un bullet
371
+
372
+ 00:08:53.144 --> 00:08:56.784
373
+ points concretos, concisos y accionables», porque es que esta vaina de que
374
+
375
+ 00:08:56.784 --> 00:08:59.254
376
+ me esté dando tanto texto, la verdad es que ya n-no lo voy
377
+
378
+ 00:08:59.254 --> 00:09:02.004
379
+ a leer. O sea, si quiero... O sea, a estas alturas ya
380
+
381
+ 00:09:02.004 --> 00:09:05.704
382
+ me hubiera leído el reporte, ¿no? Y le digo: «No me expliques todo
383
+
384
+ 00:09:05.704 --> 00:09:09.784
385
+ el contexto, dime el insight y la recomendación directa. Si tengo preguntas,
386
+
387
+ 00:09:09.784 --> 00:09:13.624
388
+ te las haré. No superes más de quinientos caracteres». Entonces ahora ya me
389
+
390
+ 00:09:13.624 --> 00:09:16.484
391
+ dio una respuesta, porque como les dije al inicio de la clase,
392
+
393
+ 00:09:16.484 --> 00:09:19.924
394
+ esto es hablar como en WhatsApp. No quieres que tu amigo te mande
395
+
396
+ 00:09:19.924 --> 00:09:23.844
397
+ una pared de texto, quieres que sea un poquito más conversacional la
398
+
399
+ 00:09:23.844 --> 00:09:28.284
400
+ cosa. Entonces, claro, aquí te va en bullets directo y accionable. Personalización total,
401
+
402
+ 00:09:28.284 --> 00:09:33.984
403
+ implementar inteligencia artificial para rutas de aprendizaje adaptativas y tutores virtuales. Esa
404
+
405
+ 00:09:33.984 --> 00:09:38.724
406
+ suena interesante. Reskilling masivo, lanzar programas corporativos enfocados en inteligencia artificial, data de
407
+
408
+ 00:09:38.724 --> 00:09:44.444
409
+ automatización. Confianza y ética, crear la línea de AI responsable. Eh... con
410
+
411
+ 00:09:44.444 --> 00:09:49.164
412
+ cursos en compliance, riesgos y gobernanza. Ecosistema integral, integrar, eh, IA en la
413
+
414
+ 00:09:49.164 --> 00:09:53.104
415
+ plataforma, generación de contenido, feedback y evaluación continua. ¿Quieres que te lo
416
+
417
+ 00:09:53.104 --> 00:09:56.344
418
+ priorice en un roadmap de seis a doce meses? Pues la verdad es
419
+
420
+ 00:09:56.344 --> 00:09:59.213
421
+ que yo no entendí muy bien a qué se refiere con esto.
422
+
423
+ 00:09:59.213 --> 00:10:03.824
424
+ Y miren que cuando yo selecciono me dice: «Ask ChatGPT». Entonces, le voy
425
+
426
+ 00:10:03.824 --> 00:10:09.773
427
+ a decir: «Explícame a qué te refieres con esto». Y le voy
428
+
429
+ 00:10:09.773 --> 00:10:14.664
430
+ a decir: «Recuerda ser conciso», porque no quiero que me dé otra vez
431
+
432
+ 00:10:14.664 --> 00:10:18.473
433
+ una pared de texto. Entonces, me dice: «Con AI responsible...». Voy a
434
+
435
+ 00:10:18.473 --> 00:10:21.824
436
+ asumir que está en inglés. «Me refiero a crear en Platzi una línea
437
+
438
+ 00:10:21.824 --> 00:10:25.384
439
+ de cursos y certificaciones sobre el uso responsable de AI, ética, privacidad
440
+
441
+ 00:10:25.384 --> 00:10:29.864
442
+ de datos, cumplimiento regulatorio, sesgos y riesgos. Así posicionan a Platzi como referente
443
+
444
+ 00:10:29.864 --> 00:10:34.024
445
+ en gobernanza en AI en Latam, diferenciándose de quienes solo enseñan la
446
+
447
+ 00:10:34.024 --> 00:10:38.644
448
+ parte técnica». Acá ChatGPT no sabe que tenemos la escuela de, de inteligencia
449
+
450
+ 00:10:38.644 --> 00:10:42.504
451
+ artificial donde ya tenemos cursos de esto, pero buenísimo porque quiere decir
452
+
453
+ 00:10:42.504 --> 00:10:46.124
454
+ que estamos en línea. Y me dice: «¿Quieres que te sugiera el temario
455
+
456
+ 00:10:46.124 --> 00:10:49.544
457
+ inicial para esa línea?» La verdad es que no. Con este último
458
+
459
+ 00:10:49.544 --> 00:10:54.704
460
+ resultado y con esa explicación, me parece que logramos el objetivo de entender
461
+
462
+ 00:10:54.704 --> 00:10:57.744
463
+ qué es lo que nos importa de este reporte. Y ya, por
464
+
465
+ 00:10:57.744 --> 00:11:06.694
466
+ ejemplo, le puedo decir, eh, en qué página, eh... del reporte, del reporte
467
+
468
+ 00:11:06.694 --> 00:11:11.163
469
+ está lo de ética de AI. Y que me diga la página
470
+
471
+ 00:11:11.164 --> 00:11:16.714
472
+ en específico y ya puedo irme a leer exactamente donde yo quiero, eh...
473
+
474
+ 00:11:16.714 --> 00:11:19.564
475
+ profundizar. Entonces, me dice alrededor de la página diez y once del
476
+
477
+ 00:11:19.564 --> 00:11:25.184
478
+ PDF. Me voy a abrir mi PDF, lo tengo por acá y vamos
479
+
480
+ 00:11:25.184 --> 00:11:28.174
481
+ a ir a la diez y once. Y en la parte diez
482
+
483
+ 00:11:28.174 --> 00:11:35.104
484
+ y once me dice cómo se aplica en organizaciones. Un poco más sobre
485
+
486
+ 00:11:35.104 --> 00:11:40.624
487
+ cómo funcionan las organizaciones, el shifting de, de responsabilidades y un poco
488
+
489
+ 00:11:40.624 --> 00:11:45.064
490
+ más acerca de cómo, eh, se refiere sobre eso. Y acá me dice:
491
+
492
+ 00:11:45.064 --> 00:11:50.284
493
+ «Habla sobre cómo los, eh, las organizaciones com-- trataron especialistas en cumplimiento
494
+
495
+ 00:11:50.284 --> 00:11:53.484
496
+ de AI». Y por eso es que me está diciendo que ese es
497
+
498
+ 00:11:53.484 --> 00:11:59.284
499
+ un tema importante a tratar. Ahora, durante esta clase fuiste viendo cómo
500
+
501
+ 00:11:59.284 --> 00:12:02.604
502
+ yo hice el ejercicio. Quiero que pares y hagas el ejercicio tú con
503
+
504
+ 00:12:02.604 --> 00:12:06.904
505
+ este mismo reporte contándole sobre ti hasta que llegues a un resultado
506
+
507
+ 00:12:06.904 --> 00:12:11.064
508
+ que era justo lo que necesitabas. Y cuando llegues a ese punto, vas
509
+
510
+ 00:12:11.064 --> 00:12:14.544
511
+ a escribir el siguiente prompt. ¿Cuál hubiera sido el prompt que debí
512
+
513
+ 00:12:14.544 --> 00:12:20.140
514
+ decirte al inicio para lograr el resultado que logramos?Lo envías, y va a
515
+
516
+ 00:12:20.140 --> 00:12:24.799
517
+ decirte cuál hubiera sido el prompt exacto que hubieras escrito para subir
518
+
519
+ 00:12:24.799 --> 00:12:28.620
520
+ el reporte, darle este mensaje y llegar a la respuesta de manera directa,
521
+
522
+ 00:12:28.620 --> 00:12:33.120
523
+ sin tener que darle tanto feedback. Ahora, todo este proceso que hicimos
524
+
525
+ 00:12:33.120 --> 00:12:38.259
526
+ se llama prompt shadowing. Fuimos trabajando en conjunto con ChatGPT para llegar a
527
+
528
+ 00:12:38.259 --> 00:12:42.919
529
+ donde queríamos llegar. Y está bien, funciona para cuando tenemos problemas nuevos.
530
+
531
+ 00:12:42.919 --> 00:12:46.820
532
+ Si queremos que se replique esto para cada reporte que tenemos que leer
533
+
534
+ 00:12:46.820 --> 00:12:51.579
535
+ o para cada artículo que queremos priorizar nuestro tiempo y saber si
536
+
537
+ 00:12:51.579 --> 00:12:56.079
538
+ dedicar el tiempo ahí, pues con este prompt ya lo podríamos hacer. En
539
+
540
+ 00:12:56.079 --> 00:12:59.820
541
+ mi caso, el resultado es: «Soy Juan Pablo Rojas, Chief Product Officer
542
+
543
+ 00:12:59.820 --> 00:13:05.440
544
+ en Platzi». El, el enfoque que es Platzi. «Te paso este reporte McKinsey
545
+
546
+ 00:13:05.440 --> 00:13:07.579
547
+ sobre el estado de AI. Quiero que lo leas y me des
548
+
549
+ 00:13:07.579 --> 00:13:12.079
550
+ los tres insights más relevantes para mi rol y para Platzi. Recomendaciones accionables
551
+
552
+ 00:13:12.079 --> 00:13:15.579
553
+ en bullets y referencias a las páginas donde se habla de ética,
554
+
555
+ 00:13:15.579 --> 00:13:20.460
556
+ compliance y gobernanza de AI». Y me dice: «¿Quieres que tengas una plantilla
557
+
558
+ 00:13:20.460 --> 00:13:23.600
559
+ más genérica?» La verdad es que no. Voy a usar este prompt,
560
+
561
+ 00:13:23.600 --> 00:13:27.880
562
+ me voy a ir a un nuevo chat, voy a agregar el documento
563
+
564
+ 00:13:27.880 --> 00:13:32.579
565
+ y voy a darle el prompt que me entregó ChatGPT. Si se
566
+
567
+ 00:13:32.579 --> 00:13:35.999
568
+ dan cuenta, abro un nuevo chat cada vez que tengo una duda. Siéntanse
569
+
570
+ 00:13:35.999 --> 00:13:41.979
571
+ libres, son gratis. Démosle enter y vamos a tener el resumen tal
572
+
573
+ 00:13:41.980 --> 00:13:47.099
574
+ cual, los tres insights como yo los pedí, como necesitaba. Incluso me está
575
+
576
+ 00:13:47.099 --> 00:13:51.039
577
+ dando la referencia de en qué parte del archivo lo está haciendo.
578
+
579
+ 00:13:51.039 --> 00:13:55.020
580
+ Y todo en un solo prompt. Deja en los comentarios el prompt que
581
+
582
+ 00:13:55.020 --> 00:13:58.139
583
+ te salió a ti. ¿Cuál fue el prompt con el que hubieras
584
+
585
+ 00:13:58.139 --> 00:14:03.999
586
+ llegado al mismo resultado sin necesidad de tener una conversación uno a uno
587
+
588
+ 00:14:03.999 --> 00:14:06.699
589
+ con ChatGPT para poder leer este reporte?
590
+
20-Análisis de datos de e commerce con ChatGPT.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d8015b1bd6d421232ba79875d33118e7387cc4762e9a54e639fa39de480e01d9
3
+ size 269371002
20-Análisis de datos de e commerce con ChatGPT.sub.vtt ADDED
@@ -0,0 +1,344 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.100 --> 00:00:03.820
4
+ No hemos explotado todas las capacidades que tienen los LLMs y una de
5
+
6
+ 00:00:03.820 --> 00:00:07.779
7
+ esas es análisis de datos. Para esta clase vamos a usar chatGPT
8
+
9
+ 00:00:07.780 --> 00:00:10.080
10
+ y en la parte de los recursos te dejo un Excel que en
11
+
12
+ 00:00:10.080 --> 00:00:12.959
13
+ este momento te voy a mostrar. Es un Excel que tiene el
14
+
15
+ 00:00:12.960 --> 00:00:16.420
16
+ reporte de ventas de un e-commerce. Todos los datos que ves acá están
17
+
18
+ 00:00:16.420 --> 00:00:18.800
19
+ en dólares y lo que vas a ver es un reporte donde
20
+
21
+ 00:00:18.800 --> 00:00:23.880
22
+ vemos ventas por mes y revenue. Luego tenemos las ventas y el average
23
+
24
+ 00:00:23.880 --> 00:00:27.360
25
+ ticket size value. Y vemos los datos acá en texto y vemos
26
+
27
+ 00:00:27.360 --> 00:00:30.920
28
+ las gráficas. Además, tenemos la base de datos de productos, que tenemos mil
29
+
30
+ 00:00:30.920 --> 00:00:37.060
31
+ productos, tenemos mil clientes y tenemos noventa y nueve mil transacciones. De
32
+
33
+ 00:00:37.060 --> 00:00:41.260
34
+ hecho, este Excel tiene un error y es con intención que vemos acá,
35
+
36
+ 00:00:41.260 --> 00:00:44.460
37
+ que es una fórmula que no, en este caso en Excel no
38
+
39
+ 00:00:44.460 --> 00:00:48.300
40
+ está funcionando bien, pero que en Google Sheets sí funciona. Y vamos a
41
+
42
+ 00:00:48.300 --> 00:00:52.160
43
+ ver qué es lo que pasa cuando entramos a chatGPT y cargamos
44
+
45
+ 00:00:52.160 --> 00:00:56.580
46
+ este archivo. Vamos a chatGPT, vamos a darle en el más, vamos a
47
+
48
+ 00:00:56.580 --> 00:01:00.380
49
+ agregar fotos o archivos y le vamos a dar reporte de ventas.
50
+
51
+ 00:01:00.380 --> 00:01:08.400
52
+ Cuando lo cargamos le vamos a decir: actúa como analista de datos. Y
53
+
54
+ 00:01:08.400 --> 00:01:12.060
55
+ este rol puede ser el rol que tú escojas. Yo en este
56
+
57
+ 00:01:12.060 --> 00:01:15.240
58
+ caso estoy probando analista de datos, pero quiero que en los comentarios me
59
+
60
+ 00:01:15.240 --> 00:01:18.940
61
+ dejes que otros roles hacen este trabajo de ver reportes, de ver
62
+
63
+ 00:01:18.940 --> 00:01:24.060
64
+ Excel, de ver incluso este tipo de datos en programación, como podría ser
65
+
66
+ 00:01:24.060 --> 00:01:28.720
67
+ un data scientist. Y durante este ejercicio, aunque yo puse este rol,
68
+
69
+ 00:01:28.720 --> 00:01:32.030
70
+ intenta poner ese rol que tú estás viendo en los comentarios del-- las
71
+
72
+ 00:01:32.030 --> 00:01:35.380
73
+ otras personas que están tomando esta clase o los otros roles que
74
+
75
+ 00:01:35.380 --> 00:01:39.020
76
+ te imagines. Y el que funcione es el que vas a usar en
77
+
78
+ 00:01:39.020 --> 00:01:42.899
79
+ la próxima tarea que tú tengas dentro de tu trabajo. Y le
80
+
81
+ 00:01:42.900 --> 00:01:51.300
82
+ vas a decir: «Lee el Excel y cuéntame qué encuentras». Lo enviamos y
83
+
84
+ 00:01:51.300 --> 00:01:54.480
85
+ lo primero que quiero que veas es que al momento de enviarlo,
86
+
87
+ 00:01:54.480 --> 00:01:58.440
88
+ chatGPT va a darme una previsualización de ese Excel, voy a poder ver
89
+
90
+ 00:01:58.440 --> 00:02:03.960
91
+ cómo lo está interpretando. Acá puedo ver la primera tabla donde tenemos
92
+
93
+ 00:02:03.960 --> 00:02:08.160
94
+ el-- los reportes y vemos que son tres tablas. Luego, acá arriba, yo
95
+
96
+ 00:02:08.160 --> 00:02:13.500
97
+ puedo cambiar entre sheets, puedo ver los productos, puedo ver los clientes
98
+
99
+ 00:02:13.500 --> 00:02:17.460
100
+ y puedo ver las transacciones. Y en transacciones puedo ver que para chatGPT
101
+
102
+ 00:02:17.460 --> 00:02:22.580
103
+ sí fue clara la fórmula y la pudo resolver. Lo importante acá
104
+
105
+ 00:02:22.580 --> 00:02:26.280
106
+ es que chatGPT no está viendo la fórmula, está viendo el resultado de
107
+
108
+ 00:02:26.280 --> 00:02:29.920
109
+ la fórmula. Entonces, en este caso, estoy viendo literalmente los meses en
110
+
111
+ 00:02:29.920 --> 00:02:34.690
112
+ las que ocurrieron esas transacciones. Esta transacción, que fue el veintidue-- el 26
113
+
114
+ 00:02:34.690 --> 00:02:38.700
115
+ de febrero del 2024, la está ca-- clasificando en el mes de
116
+
117
+ 00:02:38.700 --> 00:02:43.460
118
+ febrero. Luego veo que esta tarea es más difícil y está analizando. Y
119
+
120
+ 00:02:43.460 --> 00:02:47.900
121
+ la forma en la que analiza es creando código de programación. Los
122
+
123
+ 00:02:47.900 --> 00:02:51.760
124
+ LLMs no son buenos haciendo matemáticas, porque al final lo que hacen es
125
+
126
+ 00:02:51.760 --> 00:02:55.900
127
+ entender nuestro lenguaje y generar texto. La forma en la que mitigan
128
+
129
+ 00:02:55.900 --> 00:02:59.940
130
+ ese problema de matemáticas es que son muy buenos generando texto y el
131
+
132
+ 00:02:59.940 --> 00:03:04.840
133
+ código es texto. Entonces, estos problemas los solucionan a partir de código.
134
+
135
+ 00:03:04.840 --> 00:03:08.100
136
+ Generan el código, lo corren y el resultado de ese código es lo
137
+
138
+ 00:03:08.100 --> 00:03:13.280
139
+ que usan para darnos la respuesta. Si tú sabes de programación, puedes
140
+
141
+ 00:03:13.280 --> 00:03:17.220
142
+ ver el código, incluso puedes aprender muchas cosas cuando uno lee el código
143
+
144
+ 00:03:17.220 --> 00:03:21.040
145
+ que genera la AI. Si tú no sabes programación, no te preocupes,
146
+
147
+ 00:03:21.040 --> 00:03:24.350
148
+ no tienes que leer este código, no lo tienes que entender. Lo importante
149
+
150
+ 00:03:24.350 --> 00:03:26.540
151
+ es saber que esta es la forma en la que soluciona los
152
+
153
+ 00:03:26.540 --> 00:03:30.860
154
+ problemas. Sigue pensando y de hecho yo puedo ver que acá se quedó
155
+
156
+ 00:03:30.860 --> 00:03:34.880
157
+ trabado. Pensó por veinte segundos, no siguió pensando y de hecho ya
158
+
159
+ 00:03:34.880 --> 00:03:39.180
160
+ dio la tarea por hecho. Cuando te pasa esto, puedes dar en este
161
+
162
+ 00:03:39.220 --> 00:03:46.520
163
+ ícono de pausa y cuando das en el ícono de pausa, va
164
+
165
+ 00:03:46.520 --> 00:03:49.700
166
+ a decir que el análisis paró. ¿Qué podemos hacer para que vuelva a
167
+
168
+ 00:03:49.700 --> 00:03:54.600
169
+ iniciar? Tenemos este ícono que parece como un refresh que dice: «Try
170
+
171
+ 00:03:54.600 --> 00:04:00.600
172
+ again» y va a usar GPT-5. Le pico y le doy try again.
173
+
174
+ 00:04:00.600 --> 00:04:03.840
175
+ Y con eso va a volver a correr. Nos entregó el resultado.
176
+
177
+ 00:04:03.840 --> 00:04:09.500
178
+ Me dice: «Primeras veinte filas, qué es lo que encuentra, luego porcentajes nulos».
179
+
180
+ 00:04:09.500 --> 00:04:13.240
181
+ Me dice: «Listo, ya analicé tu Excel, esto es lo que encontré.
182
+
183
+ 00:04:13.240 --> 00:04:19.300
184
+ Estructura y calidad de datos, columnas detectadas, KPIs principales, tendencias, desglose de rankings,
185
+
186
+ 00:04:19.300 --> 00:04:26.479
187
+ anomalías, archivos explorados, siguientes pasos». Entonces, el punto acá es que fuimos
188
+
189
+ 00:04:26.480 --> 00:04:30.340
190
+ con un prompt muy ambiguo para que vieras que podría analizar el Excel,
191
+
192
+ 00:04:30.340 --> 00:04:33.800
193
+ que es la-- el proceso que toma para analizarlo y cuáles eran
194
+
195
+ 00:04:33.800 --> 00:04:38.540
196
+ los pasos que iba a hacer para poder leer este archivo. Lo importante
197
+
198
+ 00:04:38.540 --> 00:04:41.860
199
+ acá es que va a crear código para solucionar los problemas que
200
+
201
+ 00:04:41.860 --> 00:04:47.680
202
+ nosotros tengamos de análisis de datos. Incluso, yo le puedo decir: crea una
203
+
204
+ 00:04:47.680 --> 00:04:54.080
205
+ gráfica de tendencia de ventas del 2024. Y él va a tomar
206
+
207
+ 00:04:54.080 --> 00:04:58.380
208
+ el Excel, ya que lo entendió, va a crear una gráfica y lo
209
+
210
+ 00:04:58.380 --> 00:05:01.560
211
+ importante acá es que tiene dos formas de crear la gráfica. Puede
212
+
213
+ 00:05:01.560 --> 00:05:04.840
214
+ generar una imagen como lo hicimos en la clase pasada o puede generar
215
+
216
+ 00:05:04.840 --> 00:05:08.620
217
+ la gráfica a partir de código. En este caso, puedes ver que
218
+
219
+ 00:05:08.620 --> 00:05:12.740
220
+ pensó varias veces y que no logró hacer el análisis a la primera,
221
+
222
+ 00:05:12.740 --> 00:05:17.840
223
+ pero eventualmente nos entregó las gráficas y entregó las gráficas creadas por
224
+
225
+ 00:05:17.840 --> 00:05:24.020
226
+ código. Estas gráficas, tal cual, no son las generadas por lo que aprendimos
227
+
228
+ 00:05:24.020 --> 00:05:27.400
229
+ en la clase pasada, sino son gráficas generadas desde ese código, que
230
+
231
+ 00:05:27.400 --> 00:05:30.720
232
+ se ven más a lo que nosotros podríamos hacer en Excel. Y lo
233
+
234
+ 00:05:30.720 --> 00:05:35.340
235
+ más importante acá, no necesariamente quiere decir que estas gráficas estén bien.
236
+
237
+ 00:05:35.340 --> 00:05:40.160
238
+ Nosotros siempre debemos entrar a validar todo lo que genera chatGPT o cualquier
239
+
240
+ 00:05:40.160 --> 00:05:44.080
241
+ LLM, como lo hemos visto en las clases pasadas. Si yo veo,
242
+
243
+ 00:05:44.080 --> 00:05:49.090
244
+ me hizo una tendencia por conteo de registros que no se parece en
245
+
246
+ 00:05:49.090 --> 00:05:52.680
247
+ nada a la gráfica de ventas que tenemos acá. Y eso también
248
+
249
+ 00:05:52.680 --> 00:05:57.620
250
+ es porque mi prompt fue muy ambiguo. Si yo incluso veo por acá
251
+
252
+ 00:05:57.620 --> 00:06:04.027
253
+ el pensamiento, dice: «No pudo encontrar una métrica...Entonces no encontró tampoco una
254
+
255
+ 00:06:04.027 --> 00:06:08.728
256
+ columna que se llame Ventas, entonces trató de buscar por facturación o subtotal
257
+
258
+ 00:06:08.728 --> 00:06:13.067
259
+ y se fue dando vueltas. En este caso, también es importante ser
260
+
261
+ 00:06:13.068 --> 00:06:17.568
262
+ específicos en nuestros prompts. Si yo le hubiera dicho acá que la gráfica
263
+
264
+ 00:06:17.568 --> 00:06:21.668
265
+ o la métrica por la cual debe ver el reporte es revenue,
266
+
267
+ 00:06:21.668 --> 00:06:26.048
268
+ incluso si nosotros vemos acá en transacciones, vemos precio y le hubiera especificado
269
+
270
+ 00:06:26.048 --> 00:06:30.328
271
+ que tiene que ir a transacciones y sacar desde ahí la sumatoria,
272
+
273
+ 00:06:30.328 --> 00:06:35.207
274
+ pues hubiera hecho un mejor trabajo. El punto acá es que uses todo
275
+
276
+ 00:06:35.207 --> 00:06:38.988
277
+ lo que ya aprendiste durante el curso para resolver el siguiente reto.
278
+
279
+ 00:06:38.988 --> 00:06:44.988
280
+ Si tú fueras el chief marketing officer de este e-commerce, ¿dónde invertirías tu
281
+
282
+ 00:06:44.988 --> 00:06:51.008
283
+ dinero para poder crecer el siguiente mes las ventas de este e-commerce?
284
+
285
+ 00:06:51.008 --> 00:06:53.728
286
+ Vas a hacer el análisis y en los comentarios nos vas a dejar
287
+
288
+ 00:06:53.728 --> 00:06:58.048
289
+ el resultado. ¿Dónde invertirías tú el dinero? Y si quieres acompañarlo de
290
+
291
+ 00:06:58.048 --> 00:07:03.168
292
+ alguna gráfica o algún insight que hayas logrado obtener con ChatGPT pidiéndole actuar
293
+
294
+ 00:07:03.168 --> 00:07:06.587
295
+ como un analista de datos, como un data scientist, como un experto
296
+
297
+ 00:07:06.587 --> 00:07:11.097
298
+ en marketing, como un experto en ventas... lo que tú escojas. Pero nos
299
+
300
+ 00:07:11.097 --> 00:07:14.548
301
+ vas a dejar en los comentarios el prompt que usaste, dónde invertirías
302
+
303
+ 00:07:14.548 --> 00:07:18.587
304
+ el dinero y si quieres agregar alguna gráfica que hayas hecho para soportar
305
+
306
+ 00:07:18.587 --> 00:07:22.727
307
+ el lugar donde invertirías. El punto acá es que uses todo lo
308
+
309
+ 00:07:22.728 --> 00:07:27.408
310
+ que aprendiste dentro de este curso para so-- resolver el siguiente reto. Si
311
+
312
+ 00:07:27.408 --> 00:07:31.587
313
+ tú fueras la persona a cargo de decidir dónde este e-commerce debería
314
+
315
+ 00:07:31.587 --> 00:07:36.568
316
+ invertir el siguiente mes para incrementar las ventas, ¿cómo lo harías? ¿Cuál sería
317
+
318
+ 00:07:36.568 --> 00:07:39.948
319
+ el lugar donde invertirías? En el resultado de tu análisis, quiero que
320
+
321
+ 00:07:39.948 --> 00:07:44.467
322
+ lo pongas en la sección de comentarios. No nos digas dónde invertirías, si
323
+
324
+ 00:07:44.467 --> 00:07:48.248
325
+ creaste algún gráfico para soportar esta teoría y que nos cuentes con
326
+
327
+ 00:07:48.248 --> 00:07:52.688
328
+ qué prompt llegaste al resultado, qué rol le diste, cuál fue la instrucción,
329
+
330
+ 00:07:52.688 --> 00:07:56.008
331
+ qué límites tenías que poner para llegar a lo que querías ver
332
+
333
+ 00:07:56.008 --> 00:08:00.138
334
+ como resultado. E incluso cuéntanos si hiciste una cadena de prompts, un prompt
335
+
336
+ 00:08:00.138 --> 00:08:05.028
337
+ chaining para resolver el problema, describe cuál fue la cadena y ponnos
338
+
339
+ 00:08:05.028 --> 00:08:07.688
340
+ el último prompt que nos llevó a la re-- al resultado que nos
341
+
342
+ 00:08:07.688 --> 00:08:08.908
343
+ estás compartiendo.
344
+
21-Evaluación y validación de respuestas de LLM con criterios precisos.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:343eada4113ceb47823ea9db0a18d8c64888cf69d90f3d2f5276b36dd0bca706
3
+ size 327121338
21-Evaluación y validación de respuestas de LLM con criterios precisos.sub.vtt ADDED
@@ -0,0 +1,383 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.140 --> 00:00:03.620
4
+ Lo último que te quiero enseñar es cómo puedes evaluar las respuestas de
5
+
6
+ 00:00:03.620 --> 00:00:08.299
7
+ un LLM. Y acá tenemos dos tipos de evaluación. La primera es
8
+
9
+ 00:00:08.300 --> 00:00:13.380
10
+ nuestra evaluación con nuestro criterio, con lo que nosotros esperamos cuando estamos usando
11
+
12
+ 00:00:13.380 --> 00:00:17.680
13
+ los LLMs. Pero la segunda tipo de evaluación es cuando un LLM
14
+
15
+ 00:00:17.680 --> 00:00:22.060
16
+ evalúa la respuesta de otro LLM. Lo único es que ese segundo tipo
17
+
18
+ 00:00:22.060 --> 00:00:24.820
19
+ no lo podemos ver si no tenemos todavía un criterio de lo
20
+
21
+ 00:00:24.820 --> 00:00:28.620
22
+ que estamos esperando. Lo primero que debemos preguntarnos con nuestro prompt es si
23
+
24
+ 00:00:28.620 --> 00:00:31.419
25
+ es una tarea que voy a solucionar solo una vez, o es
26
+
27
+ 00:00:31.420 --> 00:00:34.540
28
+ una tarea que tiene cierta recurrencia o voy a solucionar más de una
29
+
30
+ 00:00:34.540 --> 00:00:37.800
31
+ vez. No es lo mismo hacer una consulta a la ley como
32
+
33
+ 00:00:37.800 --> 00:00:42.060
34
+ lo hicimos en clases pasadas, versus crear un prompt que me permita redactar
35
+
36
+ 00:00:42.060 --> 00:00:45.180
37
+ el asunto de los correos que tengo que enviar todas las semanas
38
+
39
+ 00:00:45.180 --> 00:00:48.780
40
+ a mis clientes. Para el segundo caso, lo primero que tenemos que tener
41
+
42
+ 00:00:48.780 --> 00:00:53.640
43
+ en mente para evaluar ese prompt es la consistencia. Cada vez que
44
+
45
+ 00:00:53.640 --> 00:00:56.360
46
+ hacemos un prompt para el caso de uso donde voy a crear el
47
+
48
+ 00:00:56.360 --> 00:01:00.380
49
+ asunto del correo que envío a todos mis clientes todas las semanas,
50
+
51
+ 00:01:00.380 --> 00:01:04.700
52
+ debo asegurarme que las modificaciones que hago a ese prompt son consistentes a
53
+
54
+ 00:01:04.700 --> 00:01:08.580
55
+ través de probarlo más de una vez. En promedio, tú deberías probar
56
+
57
+ 00:01:08.580 --> 00:01:13.120
58
+ el prompt con diferentes contenidos diez veces y ver que en todas esas
59
+
60
+ 00:01:13.120 --> 00:01:16.620
61
+ diez veces, todos los casos de uso que tienes se cubren y
62
+
63
+ 00:01:16.620 --> 00:01:22.520
64
+ el resultado es lo que necesitas las diez veces que lo pruebas. Puede
65
+
66
+ 00:01:22.520 --> 00:01:26.420
67
+ que sea nueve veces, ocho veces, está bien. Lo importante es que
68
+
69
+ 00:01:26.420 --> 00:01:29.740
70
+ sepas que no puedes confiar simplemente en el asunto que va a generar
71
+
72
+ 00:01:29.740 --> 00:01:32.860
73
+ y enviar el correo, sino que siempre vas a tener que validar
74
+
75
+ 00:01:32.860 --> 00:01:36.560
76
+ que el asunto es lo que tú esperabas y ahí sí enviar el
77
+
78
+ 00:01:36.560 --> 00:01:40.860
79
+ correo. Debes perseguir llegar a ese diez de diez y con eso
80
+
81
+ 00:01:40.860 --> 00:01:44.050
82
+ la automatización queda hecha y no te tienes que volver a preocupar por
83
+
84
+ 00:01:44.050 --> 00:01:47.840
85
+ esta tarea. Los otros tres criterios a tener en cuenta dependen de
86
+
87
+ 00:01:47.840 --> 00:01:52.020
88
+ los problemas que vamos a solucionar. El primero es precisión, y volvemos a
89
+
90
+ 00:01:52.020 --> 00:01:55.720
91
+ lo mismo. Si nosotros estamos creando un cuento o una historia, estamos
92
+
93
+ 00:01:55.720 --> 00:02:00.440
94
+ haciendo un brainstorming, la precisión no es tan importante. Pero si estamos haciendo
95
+
96
+ 00:02:00.440 --> 00:02:03.880
97
+ un análisis de un contenido, haciendo un análisis de un archivo, creando
98
+
99
+ 00:02:03.880 --> 00:02:08.280
100
+ un reporte, basándonos de un-- de una reunión para sacar los accionables o
101
+
102
+ 00:02:08.280 --> 00:02:13.660
103
+ el resumen y enviárselo a diferentes personas, la precisión se vuelve relevante.
104
+
105
+ 00:02:13.660 --> 00:02:17.100
106
+ Y cada vez que modifiques tu prompt, vas a tener que probarlo con
107
+
108
+ 00:02:17.100 --> 00:02:23.160
109
+ diez reuniones distintas, validar que la precisión es consistente y ahí sí
110
+
111
+ 00:02:23.160 --> 00:02:28.260
112
+ poder generar la automatización que estás persiguiendo. El tercer factor es la relevancia.
113
+
114
+ 00:02:28.260 --> 00:02:31.750
115
+ El contenido que me está generando es lo que yo estoy pidiendo.
116
+
117
+ 00:02:31.750 --> 00:02:35.400
118
+ Por ejemplo, si genero un informe, se está enfocando en las partes claves
119
+
120
+ 00:02:35.400 --> 00:02:38.940
121
+ del informe que me importan o está divagando y está yéndose por
122
+
123
+ 00:02:38.940 --> 00:02:42.060
124
+ las cosas que no deberían ir en este reporte o en este informe
125
+
126
+ 00:02:42.060 --> 00:02:45.460
127
+ basado en la información que le pasé. Y volvemos a lo mismo,
128
+
129
+ 00:02:45.460 --> 00:02:49.140
130
+ cada modificación la vamos a probar diez veces, vamos a evaluar la relevancia
131
+
132
+ 00:02:49.140 --> 00:02:54.060
133
+ del resultado y con esto podemos confiar en la automatización. Por último,
134
+
135
+ 00:02:54.060 --> 00:02:58.220
136
+ vas a evaluar la claridad. Y este último criterio, yo siempre lo pienso
137
+
138
+ 00:02:58.220 --> 00:03:01.520
139
+ en qué tan bueno es el resultado basado en los límites que
140
+
141
+ 00:03:01.520 --> 00:03:05.280
142
+ le di a mi prompt. ¿Está manteniendo la cantidad de caracteres que yo
143
+
144
+ 00:03:05.280 --> 00:03:08.120
145
+ le pedí? ¿Está usando el lenguaje o la-- o el tono o
146
+
147
+ 00:03:08.120 --> 00:03:12.340
148
+ la voz del mensaje que yo le estoy pidiendo? Esta parte es poder
149
+
150
+ 00:03:12.340 --> 00:03:16.220
151
+ evaluar que el resultado y su formato se mantienen en lo que
152
+
153
+ 00:03:16.220 --> 00:03:21.340
154
+ yo escribí dentro del prompt. Con estos cuatro criterios puedes pasar un prompt
155
+
156
+ 00:03:21.340 --> 00:03:25.020
157
+ de un chat que usas una vez a algo más sofisticado, un
158
+
159
+ 00:03:25.020 --> 00:03:30.000
160
+ GPT, un agente o una automatización en N8N que permita que tú te
161
+
162
+ 00:03:30.000 --> 00:03:34.239
163
+ desentiendas del problema. Lo importante va a ser que evalúes este prompt
164
+
165
+ 00:03:34.240 --> 00:03:38.440
166
+ cada semana. Puedes confiar en la automatización, pero los modelos van cambiando todo
167
+
168
+ 00:03:38.440 --> 00:03:41.800
169
+ el tiempo y son cambios que no es de un modelo antiguo
170
+
171
+ 00:03:41.800 --> 00:03:46.380
172
+ a un modelo nuevo, sino que las empresas que construyen estos modelos van
173
+
174
+ 00:03:46.380 --> 00:03:49.740
175
+ cambiando ciertas características que no le avisan a las personas que los
176
+
177
+ 00:03:49.740 --> 00:03:55.280
178
+ usamos. Entonces, siempre estamos con la predisposición de que el modelo, aunque sigue
179
+
180
+ 00:03:55.280 --> 00:04:02.960
181
+ llamándose igual, GPT-4, GPT-5, Opus 4.1 o Sonnet, puede comportarse ligeramente diferente
182
+
183
+ 00:04:02.960 --> 00:04:06.500
184
+ de una semana a otra. Y por eso es importante entender que nuestro
185
+
186
+ 00:04:06.500 --> 00:04:09.980
187
+ ca-trabajo cambió. Aunque ya no eres tú el que está enviando ese
188
+
189
+ 00:04:10.020 --> 00:04:14.120
190
+ correo cada semana, ahora tu trabajo es verificar que eso que hizo la
191
+
192
+ 00:04:14.120 --> 00:04:18.120
193
+ inteligencia artificial lo está haciendo de manera correcta y, si no, corregir
194
+
195
+ 00:04:18.120 --> 00:04:22.520
196
+ el prompt y poder volver a confiar en esa automatización. Ahora vamos a
197
+
198
+ 00:04:22.520 --> 00:04:26.320
199
+ ir al segundo caso de uso, donde usamos un LLM para evaluar
200
+
201
+ 00:04:26.320 --> 00:04:30.320
202
+ la respuesta de otro. Y para este ejercicio vamos a volver a la
203
+
204
+ 00:04:30.320 --> 00:04:34.440
205
+ clase en donde trabajamos con la ley de entidades crediticias. Y si
206
+
207
+ 00:04:34.440 --> 00:04:37.680
208
+ recuerdan, todo eso lo hicimos en Gemini. Vamos a volver al chat en
209
+
210
+ 00:04:37.680 --> 00:04:41.600
211
+ Gemini y vamos a ver que teníamos nuestros archivos arriba, que teníamos
212
+
213
+ 00:04:41.600 --> 00:04:45.420
214
+ el anexo sesenta y tres, el diario de la federación y la ley.
215
+
216
+ 00:04:45.420 --> 00:04:49.040
217
+ Le habíamos dicho que se comporte como un asistente legal, que únicamente
218
+
219
+ 00:04:49.040 --> 00:04:53.520
220
+ basaran las respuestas en el documento adjunto, y que si no sabía la
221
+
222
+ 00:04:53.520 --> 00:04:58.760
223
+ información, nos respondiera que no tenía esa información. Y más adelante, en
224
+
225
+ 00:04:58.760 --> 00:05:03.800
226
+ nuestro chat le habíamos dicho que, si había información sobre custodia de la
227
+
228
+ 00:05:03.800 --> 00:05:07.660
229
+ información, nos dijo que el diario de la federación sí tenía, y
230
+
231
+ 00:05:07.660 --> 00:05:12.460
232
+ validamos si la ley de instituciones crediticias mencionaba algo. Y nos decía que
233
+
234
+ 00:05:12.460 --> 00:05:15.920
235
+ no. Vamos a copiar ese término y nos vamos a ir a
236
+
237
+ 00:05:15.920 --> 00:05:19.979
238
+ ChatGPT a validar si es verdad que la ley de instituciones de crédito
239
+
240
+ 00:05:19.980 --> 00:05:23.540
241
+ no tiene nada que ver con custodia de la información. Vamos a
242
+
243
+ 00:05:23.540 --> 00:05:27.100
244
+ ir a ChatGPT, vamos a subir la ley, que también te la estoy
245
+
246
+ 00:05:27.100 --> 00:05:30.460
247
+ dejando en los recursos para que sea más fácil encontrarla. Acá la
248
+
249
+ 00:05:30.460 --> 00:05:41.340
250
+ vemos. Y le vamos a decir: «Dentro del archivo adjunto hay información sobre
251
+
252
+ 00:05:41.340 --> 00:05:47.140
253
+ custodia de la información». Acá podría haber inf-- ambigüedad. Voy a decirle:
254
+
255
+ 00:05:47.140 --> 00:05:53.160
256
+ «Hay, eh, alguna ley sobre custodia de la información». Con eso no repetimos
257
+
258
+ 00:05:53.160 --> 00:05:56.420
259
+ la palabra y no tenemos chance de que se confunda el modelo.
260
+
261
+ 00:05:56.420 --> 00:05:59.040
262
+ Esto lo voy a hacer en el modelo en auto, es decir, él
263
+
264
+ 00:05:59.040 --> 00:06:03.050
265
+ va a decidir qué tan complejo es este problema y lo enviamos.[Comienza la grabación]
266
+
267
+ 00:06:03.050 --> 00:06:06.420
268
+ En este caso, ChatGPT me está diciendo: «Sí, dentro del archivo aparece
269
+
270
+ 00:06:06.420 --> 00:06:09.580
271
+ normativa sobre custodia y conservación de la información en el marco de la
272
+
273
+ 00:06:09.580 --> 00:06:13.500
274
+ ley de instituciones de crédito». Voy a tomar esta información que me
275
+
276
+ 00:06:13.500 --> 00:06:18.180
277
+ da acá, que de hecho me está diciendo: «Mire, lo encuentra en el
278
+
279
+ 00:06:18.180 --> 00:06:22.030
280
+ archivo que usted me subió». Y me dice: «En resumen, la ley
281
+
282
+ 00:06:22.030 --> 00:06:25.740
283
+ sí regula la custodia y conservación de la información, obligando a las instituciones
284
+
285
+ 00:06:25.740 --> 00:06:29.960
286
+ a mantener registros claros, confiables y protegidos. ¿Quieres que te extraiga la
287
+
288
+ 00:06:29.960 --> 00:06:34.400
289
+ información puntual?» No lo vamos a hacer, vamos a tomar esta información y
290
+
291
+ 00:06:34.400 --> 00:06:37.060
292
+ vamos a irnos ahora con Gemini y vamos a validar si esa
293
+
294
+ 00:06:37.060 --> 00:06:41.480
295
+ información está presente en nuestro chat, donde ya le dijimos que si no
296
+
297
+ 00:06:41.480 --> 00:06:45.140
298
+ existe esa información, nos diga que no existe. Entonces, le voy a
299
+
300
+ 00:06:45.140 --> 00:06:55.100
301
+ decir en este chat: «¿Puedes validar si esta información es correcta? Valídala sobre
302
+
303
+ 00:06:55.100 --> 00:07:07.840
304
+ la ley de instituciones, tituciones de crédito, crédito». Entonces, acá instituciones nos
305
+
306
+ 00:07:07.840 --> 00:07:14.780
307
+ quedó mal escrita. Instituciones, listo. Y vamos a poner la información. Acá tenemos
308
+
309
+ 00:07:14.780 --> 00:07:19.040
310
+ nuestro prompt completo, que tiene tanto el artículo ciento veinticuatro como el
311
+
312
+ 00:07:19.040 --> 00:07:23.700
313
+ artículo setenta y nueve. Está haciendo el análisis y dice: «De acuerdo con
314
+
315
+ 00:07:23.700 --> 00:07:27.920
316
+ los documentos adjuntos a la ley, la información proporcionada es correcta». Ya
317
+
318
+ 00:07:27.920 --> 00:07:32.300
319
+ está la información que le dimos. En este caso, quiero que veas cómo
320
+
321
+ 00:07:32.300 --> 00:07:37.320
322
+ usamos dos LLMs para validar si la información que estábamos buscando estaba
323
+
324
+ 00:07:37.320 --> 00:07:41.280
325
+ o no estaba. Originalmente, Gemini nos dijo que no, y esto fue porque
326
+
327
+ 00:07:41.280 --> 00:07:45.800
328
+ se fue a buscar literalmente los términos, no agarró la sutileza sino
329
+
330
+ 00:07:45.800 --> 00:07:49.260
331
+ fue a ver si había algo que refería a esa información, pero no
332
+
333
+ 00:07:49.260 --> 00:07:54.280
334
+ bajo esos términos en específico. Cuando nos fuimos a ChatGPT, encontramos la
335
+
336
+ 00:07:54.280 --> 00:07:58.700
337
+ información que podría referirse a eso y ya validamos si esa información la
338
+
339
+ 00:07:58.700 --> 00:08:02.980
340
+ había alucinado ChatGPT o si en efecto estaba y simplemente no la
341
+
342
+ 00:08:02.980 --> 00:08:06.700
343
+ había encontrado porque no eran los términos exactos. Esta forma de validar es
344
+
345
+ 00:08:06.700 --> 00:08:09.740
346
+ muy útil porque no implica tener que leer toda la ley para
347
+
348
+ 00:08:09.740 --> 00:08:16.740
349
+ saber si Gemini o Claude o ChatGPT están alucinando. Y tampoco confía únicamente
350
+
351
+ 00:08:16.740 --> 00:08:20.660
352
+ en las técnicas de prompting que usamos para asegurarnos de que solo
353
+
354
+ 00:08:20.660 --> 00:08:24.500
355
+ basara la información en los documentos que le entregamos. Con esto, la próxima
356
+
357
+ 00:08:24.500 --> 00:08:27.659
358
+ vez que escribas un prompt, no te quedes con la primera respuesta.
359
+
360
+ 00:08:27.660 --> 00:08:32.780
361
+ Crea variaciones, valídalas, prueba sistemáticamente con todas las herramientas que te he dado
362
+
363
+ 00:08:32.780 --> 00:08:36.360
364
+ durante el curso, con el fin de encontrar el flujo de trabajo
365
+
366
+ 00:08:36.360 --> 00:08:41.880
367
+ que mejor funciona según el problema que estás automatizando. E incluso, antes de
368
+
369
+ 00:08:41.880 --> 00:08:45.180
370
+ pensar en automatizar o antes de pensar en solucionar un problema con
371
+
372
+ 00:08:45.180 --> 00:08:51.860
373
+ inteligencia artificial, hazte la pregunta: ¿Ese problema necesita inteligencia artificial? Porque ya viste
374
+
375
+ 00:08:51.860 --> 00:08:54.860
376
+ que no es un trabajo sencillo y te puedes quedar mucho tiempo
377
+
378
+ 00:08:54.860 --> 00:08:58.879
379
+ haciendo este proceso cuando la realidad es que ese problema no necesitaba ser
380
+
381
+ 00:08:58.880 --> 00:09:00.680
382
+ algo que se solucionara con AI.
383
+
22-Plantillas de prompts para correos de seguimiento empresarial.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c545a7005cc6b43de948c85eabcf7e4f34694c2eb3514b0d8ddf7a9612c5fb18
3
+ size 130956834
22-Plantillas de prompts para correos de seguimiento empresarial.sub.vtt ADDED
@@ -0,0 +1,167 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.080 --> 00:00:03.740
4
+ Hasta este punto ya aprendiste cuál es la estructura base de un prompt.
5
+
6
+ 00:00:03.740 --> 00:00:07.310
7
+ Aprendiste que no son reglas de oro, sino también aprendiste cómo funciona
8
+
9
+ 00:00:07.310 --> 00:00:11.340
10
+ el modelo de atención, el espacio vectorial y cómo las palabras importan para
11
+
12
+ 00:00:11.340 --> 00:00:14.940
13
+ ir modificando ese prompt con el fin de llegar a ese resultado.
14
+
15
+ 00:00:14.940 --> 00:00:20.900
16
+ También vimos varias técnicas de prompting, desde zero shot, free shot, self-consistency, cadena
17
+
18
+ 00:00:20.900 --> 00:00:25.240
19
+ de pensamiento e incluso llegamos a ver cómo manejar largas ventanas de
20
+
21
+ 00:00:25.240 --> 00:00:29.440
22
+ contexto para evitar que el modelo alucine o que olvide instrucciones y qué
23
+
24
+ 00:00:29.440 --> 00:00:33.380
25
+ hacer cuando nos enfrentamos a este problema. Acá abajo en la sección
26
+
27
+ 00:00:33.380 --> 00:00:38.380
28
+ de recursos voy a dejarte diferentes plantillas. Estas plantillas son para diversos problemas
29
+
30
+ 00:00:38.380 --> 00:00:41.140
31
+ a los que te vas a enfrentar. Son una pieza de inspiración
32
+
33
+ 00:00:41.140 --> 00:00:45.100
34
+ para que tú puedas solucionar diferentes de esos problemas, pero también para que
35
+
36
+ 00:00:45.100 --> 00:00:48.640
37
+ tú las modifiques y las adaptes al contexto de tu trabajo. Para
38
+
39
+ 00:00:48.640 --> 00:00:52.240
40
+ esto quiero mostrarte una de las plantillas. Con eso te enseño a usarlas
41
+
42
+ 00:00:52.240 --> 00:00:56.240
43
+ y te sientes libre de modificarlas. Esta plantilla que tenemos acá es
44
+
45
+ 00:00:56.240 --> 00:00:59.200
46
+ para redactar un correo de seguimiento a un cliente a partir de una
47
+
48
+ 00:00:59.200 --> 00:01:03.920
49
+ reunión. Tenemos: eres un asistente de redacción comercial que compone correos claros,
50
+
51
+ 00:01:03.920 --> 00:01:08.500
52
+ concisos y respetuosos, y su tarea es redactar un correo de seguimiento posterior
53
+
54
+ 00:01:08.500 --> 00:01:11.660
55
+ a una reunión con el cliente con un resumen breve, acuerdos y
56
+
57
+ 00:01:11.660 --> 00:01:16.880
58
+ próximos pasos concretos. Tenemos acá nuestra etiqueta del contexto, que inicia y termina
59
+
60
+ 00:01:16.880 --> 00:01:21.539
61
+ acá, y tenemos el nombre del cliente, nombre de la empresa, fecha
62
+
63
+ 00:01:21.540 --> 00:01:26.020
64
+ de la reunión y notas de la reunión. Esto que ves acá entre
65
+
66
+ 00:01:26.020 --> 00:01:29.339
67
+ llaves es la información que debes reemplazar. La puse en amarillo para
68
+
69
+ 00:01:29.340 --> 00:01:33.340
70
+ que sea más evidente. Y luego tenemos los límites, que van a establecer
71
+
72
+ 00:01:33.340 --> 00:01:37.700
73
+ cuál es el output que estamos esperando, el resultado del LLM, que
74
+
75
+ 00:01:37.700 --> 00:01:41.320
76
+ sea máximo de ciento cincuenta o doscientas palabras, que tenga una estructura con
77
+
78
+ 00:01:41.320 --> 00:01:46.420
79
+ asu-- con asunto, saludo, párrafo, agradecimiento, lenguaje simple y directo, una voz
80
+
81
+ 00:01:46.420 --> 00:01:50.860
82
+ que contenga cohesión y cortesía y que entregues solo el correo final sin
83
+
84
+ 00:01:50.860 --> 00:01:56.400
85
+ notas ni explicaciones. Vamos a llevarnos este prompt a Claude y vamos
86
+
87
+ 00:01:56.400 --> 00:02:00.080
88
+ a poner la información acerca de una reunión ficticia que tengo por acá
89
+
90
+ 00:02:00.080 --> 00:02:05.000
91
+ para que veamos cómo funciona. Entonces, el nombre del cliente va a
92
+
93
+ 00:02:05.000 --> 00:02:12.700
94
+ ser Francisco García, Francisco García. La empresa va a ser Innovatech. Entonces, le
95
+
96
+ 00:02:12.700 --> 00:02:22.060
97
+ vamos a decir acá Innovatech. Innova, Innova con una N, Innovatech. La
98
+
99
+ 00:02:22.060 --> 00:02:29.160
100
+ fecha de la reunión va a ser 12 de agosto del 2025. 2025.
101
+
102
+ 00:02:29.160 --> 00:02:32.320
103
+ Y vamos a tener las notas de la reunión que yo tomé
104
+
105
+ 00:02:32.320 --> 00:02:36.100
106
+ para que pueda construir el correo. Entonces, digo, la reunión se llevó a
107
+
108
+ 00:02:36.100 --> 00:02:39.920
109
+ cabo con el director de operaciones, que sería este Francisco, responsable de
110
+
111
+ 00:02:39.920 --> 00:02:44.880
112
+ marketing de Innovatech. Se discu-- se discutieron estas cosas, estos son los accionables
113
+
114
+ 00:02:44.880 --> 00:02:50.180
115
+ y se acordó una comunicación para tal día. Entonces, en este caso
116
+
117
+ 00:02:50.180 --> 00:02:54.530
118
+ dice 30 de septiembre, en realidad no es 30 de septiembre, eh, 30
119
+
120
+ 00:02:54.530 --> 00:02:59.960
121
+ de agosto, perdón, lo vamos a dejar para octubre. Y con esto
122
+
123
+ 00:02:59.960 --> 00:03:05.800
124
+ lo vamos a enviar. Si te diste cuenta, mientras piensa, reemplazamos las variables
125
+
126
+ 00:03:05.800 --> 00:03:08.940
127
+ con la información que yo tenía acerca de mi reunión y desde
128
+
129
+ 00:03:08.940 --> 00:03:15.540
130
+ ahí simplemente envié y puedo ver el resultado. El asunto tengo acá, el
131
+
132
+ 00:03:15.540 --> 00:03:19.299
133
+ correo que pedí, saludos cordiales y me pide que yo ponga mi
134
+
135
+ 00:03:19.300 --> 00:03:23.420
136
+ nombre, mi cargo y mis datos de contacto. Con eso ya tengo un
137
+
138
+ 00:03:23.420 --> 00:03:27.240
139
+ prompt que me soluciona un problema. Ahora, este prompt no es el
140
+
141
+ 00:03:27.240 --> 00:03:29.360
142
+ tono que se usa en tu empresa o no es la forma en
143
+
144
+ 00:03:29.360 --> 00:03:33.820
145
+ la que tú hablas, siéntete libre de modificar este prompt a lo
146
+
147
+ 00:03:33.820 --> 00:03:36.960
148
+ que se acomode para tu caso de uso. Y con esto ya estás
149
+
150
+ 00:03:36.960 --> 00:03:41.060
151
+ preparada para tomar el examen del curso, aprobarlo y compartir tu certificado
152
+
153
+ 00:03:41.060 --> 00:03:43.760
154
+ en LinkedIn para que todo el mundo sepa que ya estás lista para
155
+
156
+ 00:03:43.760 --> 00:03:47.299
157
+ crear prompts en cualquier reto que tengas en tu trabajo. Yo soy
158
+
159
+ 00:03:47.300 --> 00:03:50.620
160
+ Juan Pablo Rojas, chief product officer de Platzi, y fue un placer acompañarte
161
+
162
+ 00:03:50.620 --> 00:03:54.400
163
+ durante este curso. Escribe todo lo que vas aprendiendo en los comentarios
164
+
165
+ 00:03:54.400 --> 00:03:57.340
166
+ y continuamos la conversación. Estaré respondiéndolos todos.
167
+
3-Cómo interpretan los LLM el significado de las palabras.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f633a58cc6808c4e430af6e368fac303bc0697115f6d77055972f4a6669c5ea8
3
+ size 339952820
3-Cómo interpretan los LLM el significado de las palabras.sub.vtt ADDED
@@ -0,0 +1,374 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.280 --> 00:00:04.000
4
+ Imagina que eres el dueño de una biblioteca, tienes cientos de libros y
5
+
6
+ 00:00:04.000 --> 00:00:09.700
7
+ necesitas encontrar uno que habla sobre cocina. ¿Cómo lo puedes lograr? Seguramente
8
+
9
+ 00:00:09.700 --> 00:00:15.020
10
+ organizas la biblioteca por temáticas. Cocina va por acá, novelas van por acá,
11
+
12
+ 00:00:15.020 --> 00:00:19.160
13
+ eh, todos los libros sobre programación van por acá, eh, todos los
14
+
15
+ 00:00:19.160 --> 00:00:22.660
16
+ libros de historia van por allá. Estás usando una de las características de
17
+
18
+ 00:00:22.660 --> 00:00:26.940
19
+ los libros para organizar tu biblioteca y, según tu necesidad, hacer más
20
+
21
+ 00:00:26.940 --> 00:00:31.640
22
+ fácil encontrar ese libro. ¿Cierto? Los modelos de lenguaje hacen algo muy similar
23
+
24
+ 00:00:31.640 --> 00:00:35.860
25
+ para poder entender el significado de las palabras dentro del lenguaje que
26
+
27
+ 00:00:35.860 --> 00:00:41.780
28
+ nosotros hablamos. Asignan una ubicación matemática específica para cada una de esas palabras,
29
+
30
+ 00:00:41.780 --> 00:00:46.380
31
+ como si fuera un GPS donde cada característica que tiene una palabra,
32
+
33
+ 00:00:46.380 --> 00:00:49.620
34
+ y no solo la palabra como tal, sino su significado, lo que quiere
35
+
36
+ 00:00:49.620 --> 00:00:54.140
37
+ decir dentro de una cultura, le permite lograr, ubicarla y hallarla en
38
+
39
+ 00:00:54.140 --> 00:00:59.500
40
+ un espacio gigante de muchas dimensiones. Esta ubicación matemática precisa que ayuda al
41
+
42
+ 00:00:59.500 --> 00:01:03.780
43
+ GPS a encontrar las palabras dentro de todos sus significados, se les
44
+
45
+ 00:01:03.780 --> 00:01:08.380
46
+ llama embeddings o representación vectorial. Y piensa en esto como el ADN de
47
+
48
+ 00:01:08.380 --> 00:01:12.480
49
+ una palabra. Es una secuencia de números que a la máquina, que
50
+
51
+ 00:01:12.480 --> 00:01:16.400
52
+ habla en números, le va a permitir entender todo el significado de esa
53
+
54
+ 00:01:16.400 --> 00:01:21.500
55
+ palabra y encontrarla y hallarla dentro de lo que queremos decir para
56
+
57
+ 00:01:21.500 --> 00:01:26.080
58
+ entender ese prompt que nosotros estamos entregando. Por ejemplo, la palabra perro, que
59
+
60
+ 00:01:26.080 --> 00:01:30.040
61
+ tiene las siguientes coordenadas: cero punto dos, menos cero punto cinco, cero
62
+
63
+ 00:01:30.040 --> 00:01:34.780
64
+ punto ocho, cero punto tres y muchas más. Y un segundo. Si no
65
+
66
+ 00:01:34.780 --> 00:01:38.480
67
+ te gustan las matemáticas, entiendo que esto pueda ser algo que asuste.
68
+
69
+ 00:01:38.480 --> 00:01:44.360
70
+ Piénsalo como decir una dirección en un, en una ciudad en donde vives,
71
+
72
+ 00:01:44.360 --> 00:01:48.340
73
+ son una forma de llegar allá. Y podemos tener la palabra gato
74
+
75
+ 00:01:48.340 --> 00:01:51.480
76
+ que tiene cero punto veintiuno, menos cero punto cuarenta y ocho, cero punto
77
+
78
+ 00:01:51.480 --> 00:01:55.320
79
+ setenta y nueve, cero punto treinta y uno. Y si lo ves,
80
+
81
+ 00:01:55.320 --> 00:02:01.780
82
+ de hecho, las coordenadas se parecen, son muy cercanas. ¿Por qué? Pues básicamente
83
+
84
+ 00:02:01.780 --> 00:02:05.880
85
+ porque estas dos palabras, aunque son diferentes, son letras diferentes, de hecho,
86
+
87
+ 00:02:05.880 --> 00:02:10.139
88
+ entre perro y gato solo comparten la O, en su significado y lo
89
+
90
+ 00:02:10.139 --> 00:02:16.320
91
+ que significan dentro de nuestro lenguaje y nuestra cultura son muy similares.
92
+
93
+ 00:02:16.320 --> 00:02:21.600
94
+ Ambas son animales, ambos son mamíferos, ambos son domésticos. Y eso es lo
95
+
96
+ 00:02:21.600 --> 00:02:26.980
97
+ que representa esta ubicación matemática que le asigna los LLMs a las
98
+
99
+ 00:02:26.980 --> 00:02:31.900
100
+ palabras a través de los embeddings. Todo ese significado y qué tan cercanas
101
+
102
+ 00:02:31.900 --> 00:02:35.940
103
+ están esas palabras. Vamos a ver otro ejemplo. Y para este siguiente
104
+
105
+ 00:02:35.940 --> 00:02:41.000
106
+ ejemplo, quiero que tengas en mente lo siguiente. En este espacio matemático gigante,
107
+
108
+ 00:02:41.000 --> 00:02:44.440
109
+ esa ubicación va a representar la cercanía de las palabras en su
110
+
111
+ 00:02:44.440 --> 00:02:49.860
112
+ significado. Eso quiere decir que palabras con significados similares van a estar cerca.
113
+
114
+ 00:02:49.860 --> 00:02:54.480
115
+ Rey está cerca de reina, hospital está cerca de médico, azul está
116
+
117
+ 00:02:54.480 --> 00:02:59.910
118
+ cerca de rojo. Todos comparten muchas características que hacen que la cercanía en
119
+
120
+ 00:02:59.910 --> 00:03:04.560
121
+ ese espacio matemático se dé. Y es raro pensar de esta manera,
122
+
123
+ 00:03:04.560 --> 00:03:09.600
124
+ porque para nosotros esto es muy obvio o muy de sentido común. Pero
125
+
126
+ 00:03:09.600 --> 00:03:12.660
127
+ para que los LLMs pudieran capturar la forma en la que hablamos
128
+
129
+ 00:03:12.660 --> 00:03:18.340
130
+ y entenderla, teníamos que volverlo algo que matemáticamente funcionara. Y dentro del proceso
131
+
132
+ 00:03:18.340 --> 00:03:21.480
133
+ de prompt engineering, lo que vamos a estar haciendo es traer algo
134
+
135
+ 00:03:21.480 --> 00:03:25.940
136
+ que es de sentido común o muy del inconsciente, el consciente, y poder
137
+
138
+ 00:03:25.940 --> 00:03:29.470
139
+ ponerlo en palabras y ser conscientes justamente de cuáles son las palabras
140
+
141
+ 00:03:29.470 --> 00:03:32.240
142
+ que estamos usando. Este ejemplo no te va a poner otra vez los
143
+
144
+ 00:03:32.240 --> 00:03:35.420
145
+ vectores y las matemáticas, no te preocupes, pero sí quiero que veas
146
+
147
+ 00:03:35.420 --> 00:03:41.660
148
+ como, si ya entendemos que cada palabra en este espacio gigante dimensional captura
149
+
150
+ 00:03:41.660 --> 00:03:44.740
151
+ el significado de esas palabras y las pone cerca o lejos según
152
+
153
+ 00:03:44.740 --> 00:03:50.740
154
+ su significado, pues también puede capturar relaciones un poco más complejas. Entonces, imaginémonos
155
+
156
+ 00:03:50.740 --> 00:03:53.930
157
+ que tenemos el vector de rey, la palabra rey ubicada en este
158
+
159
+ 00:03:53.930 --> 00:04:01.390
160
+ espacio, eh, multidimensional. Y luego yo le resto hombre. Es raro porque nosotros
161
+
162
+ 00:04:01.390 --> 00:04:05.680
163
+ en las palabras no restamos ni sumamos. Pero trata de imaginarlo, que
164
+
165
+ 00:04:05.680 --> 00:04:09.040
166
+ a la palabra rey le estamos quitando el factor de que es hombre
167
+
168
+ 00:04:09.040 --> 00:04:12.520
169
+ y ahora le vamos a agregar el factor que es mujer. Si
170
+
171
+ 00:04:12.520 --> 00:04:16.320
172
+ yo te digo esto así, quiero que pares y en los comentarios me
173
+
174
+ 00:04:16.320 --> 00:04:25.220
175
+ digas cuál es el resultado. Ya que lo pusiste en los comentarios,
176
+
177
+ 00:04:25.220 --> 00:04:28.380
178
+ estoy muy seguro de que llegaste al mismo lugar al que llegaría un
179
+
180
+ 00:04:28.380 --> 00:04:32.760
181
+ LLM. Y es que diría que rey menos hombre más mujer sería
182
+
183
+ 00:04:32.800 --> 00:04:37.320
184
+ una reina. Si quitamos del factor rey, del significado rey, la palabra hombre
185
+
186
+ 00:04:37.320 --> 00:04:40.980
187
+ y decimos que es una mujer, automáticamente pensamos en que estamos hablando
188
+
189
+ 00:04:40.980 --> 00:04:43.980
190
+ de la reina. Y esta es la forma en la que ese espacio
191
+
192
+ 00:04:43.980 --> 00:04:49.500
193
+ multidimensional, donde cada palabra y su significado es ubicado, puede llegar a
194
+
195
+ 00:04:49.500 --> 00:04:55.080
196
+ usar operaciones matemáticas para incluso llegar a lugares o capturar relaciones más complejas
197
+
198
+ 00:04:55.080 --> 00:04:59.620
199
+ de cómo nosotros nos comunicamos. Y para que puedas imaginarte un poco
200
+
201
+ 00:04:59.620 --> 00:05:04.200
202
+ más cómo se ve este espacio vectorial, quiero mostrarte lo siguiente. Acá tenemos
203
+
204
+ 00:05:04.200 --> 00:05:06.979
205
+ una herramienta que se llama el Embedding Projector, que lo que hace
206
+
207
+ 00:05:06.980 --> 00:05:10.320
208
+ es tratar de mostrarnos de una manera gráfica cómo se ve este espacio
209
+
210
+ 00:05:10.320 --> 00:05:14.400
211
+ multidimensional. Te estoy dejando el enlace en los recursos y quiero que
212
+
213
+ 00:05:14.400 --> 00:05:18.980
214
+ tengas en cuenta una cosa. Primero, este proyector de embeddings solo funciona para
215
+
216
+ 00:05:18.980 --> 00:05:21.520
217
+ palabras en inglés y lo siguiente que quiero que tengas en cuenta
218
+
219
+ 00:05:21.520 --> 00:05:25.240
220
+ es que acá solo somos capaces de ver tres dimensiones, como si estuviéramos
221
+
222
+ 00:05:25.240 --> 00:05:30.460
223
+ clasificando las palabras en tres características. Los LLMs hacen esto en muchas
224
+
225
+ 00:05:30.460 --> 00:05:35.100
226
+ más. De hecho, estamos hablando de setecientas cuarenta y ocho, mil veinticuatro, dos
227
+
228
+ 00:05:35.100 --> 00:05:40.160
229
+ mil cincuenta y seis di-dimensiones, algo que simplemente es imposible de imaginar.
230
+
231
+ 00:05:40.160 --> 00:05:43.980
232
+ Probamos esto. Tenemos una nube donde cada uno de esos puntos son una
233
+
234
+ 00:05:43.980 --> 00:05:48.420
235
+ palabra. Y en este caso, yo busqué queen, reina. Y podemos ver
236
+
237
+ 00:05:48.420 --> 00:05:56.180
238
+ cómo palabras cercanas son Elizabeth, Anne, King, Mary, Princess, Catherine. Y esa cercanía
239
+
240
+ 00:05:56.180 --> 00:05:59.360
241
+ la va a capturar de todo el entrenamiento que tienen los LLMs
242
+
243
+ 00:05:59.360 --> 00:06:03.496
244
+ por detrás con toda la literatura que existe.Todo lo que hay acerca de
245
+
246
+ 00:06:03.496 --> 00:06:07.796
247
+ liqui-- literatura y que está sin copyright en principio, lo va a
248
+
249
+ 00:06:07.796 --> 00:06:12.056
250
+ usar para entrenarse y ese entrenamiento es para simular nuestra inteligencia, y lo
251
+
252
+ 00:06:12.056 --> 00:06:16.536
253
+ primero que hace para simular la inteligencia es entender nuestro lenguaje y
254
+
255
+ 00:06:16.536 --> 00:06:19.896
256
+ de esta manera lo entiende. Entonces, esto nos habla de que mucha de
257
+
258
+ 00:06:19.896 --> 00:06:24.196
259
+ la literatura que existe, la palabra queen está cerca de Elizabeth, por
260
+
261
+ 00:06:24.196 --> 00:06:29.536
262
+ la reina E-Elizabeth. Y acá podemos ver cómo se ilumina una parte de
263
+
264
+ 00:06:29.536 --> 00:06:33.476
265
+ ese espacio vectorial y qué tan cercanas están las palabras que estamos
266
+
267
+ 00:06:33.476 --> 00:06:37.516
268
+ viendo. Si yo me voy a queen, en específico, miren, por acá sale,
269
+
270
+ 00:06:37.516 --> 00:06:41.756
271
+ eh, revenge sale por ahí, pero acá está Elizabeth y vemos que
272
+
273
+ 00:06:41.756 --> 00:06:45.836
274
+ queen está por acá y luego princess está por acá, que gráficamente pareciera
275
+
276
+ 00:06:45.836 --> 00:06:48.556
277
+ que está más cerca, pero si nos movemos vemos que se aleja
278
+
279
+ 00:06:48.556 --> 00:06:51.776
280
+ porque pues son tres dimensiones. Pero esto nos da un poquito la idea
281
+
282
+ 00:06:51.776 --> 00:06:55.716
283
+ de esto que estábamos hablando, cómo se ve gráficamente. ¿Y esto por
284
+
285
+ 00:06:55.716 --> 00:07:01.096
286
+ qué es crucial para los LLM? Es básicamente la diferencia entre el teclado
287
+
288
+ 00:07:01.096 --> 00:07:05.656
289
+ predictivo de cuando estás hablando por WhatsApp versus todo este sistema que
290
+
291
+ 00:07:05.656 --> 00:07:09.656
292
+ te estoy explicando para que un LLM entienda nuestro lenguaje. Cuando yo escribo
293
+
294
+ 00:07:09.656 --> 00:07:13.146
295
+ por WhatsApp, solo está prediciendo cuál es la siguiente palabra después de
296
+
297
+ 00:07:13.146 --> 00:07:18.416
298
+ decir: «Hola». ¿Qué más uso cuando estoy escribiendo? No está buscando el significado
299
+
300
+ 00:07:18.416 --> 00:07:21.676
301
+ de las palabras, no está viendo cuál es mi intención en el
302
+
303
+ 00:07:21.676 --> 00:07:27.216
304
+ mensaje. Por eso el autocorrector no puede escribirme un correo. La diferencia con
305
+
306
+ 00:07:27.216 --> 00:07:31.496
307
+ ChatGPT, los LLM o cualquiera de estas herramientas es que sí capturan
308
+
309
+ 00:07:31.496 --> 00:07:34.396
310
+ la esencia de lo que estoy diciendo y tratan de buscar qué es
311
+
312
+ 00:07:34.396 --> 00:07:38.606
313
+ lo que más sentido tiene dentro de mi comunicación. Si yo escribo:
314
+
315
+ 00:07:38.606 --> 00:07:42.536
316
+ «El cielo es», lo que estoy haciendo es mover la atención de ese
317
+
318
+ 00:07:42.536 --> 00:07:46.836
319
+ LLM hacia ese espacio vectorial que tiene que ver con el clima,
320
+
321
+ 00:07:46.836 --> 00:07:50.876
322
+ y va a tener ese contexto alrededor del clima. Teniendo en cuenta esto,
323
+
324
+ 00:07:50.876 --> 00:07:54.776
325
+ y que cada palabra que nosotros escribimos mueve la atención del LLM
326
+
327
+ 00:07:54.776 --> 00:07:59.196
328
+ hacia un lugar de ese espacio vectorial, en la siguiente clase vamos a
329
+
330
+ 00:07:59.196 --> 00:08:03.916
331
+ hablar sobre cómo asignarle un rol al LLM para poder cumplir una
332
+
333
+ 00:08:03.916 --> 00:08:07.026
334
+ tarea en específico y cuál es su función, cuál es la razón para
335
+
336
+ 00:08:07.026 --> 00:08:10.236
337
+ asignar un rol. Y conforme vamos avanzando en el curso, vamos a
338
+
339
+ 00:08:10.236 --> 00:08:13.606
340
+ ver diferentes técnicas que lo único que hacen es jugar con ese modelo
341
+
342
+ 00:08:13.606 --> 00:08:17.296
343
+ de atención y con lo que acabamos de ver del espacio vectorial
344
+
345
+ 00:08:17.296 --> 00:08:21.176
346
+ para lograr resultados efectivos. Lo que quiero que te lleves de esta clase
347
+
348
+ 00:08:21.176 --> 00:08:24.296
349
+ es que cada vez que vayas a escribir un prompt, pienses que
350
+
351
+ 00:08:24.296 --> 00:08:28.716
352
+ cada palabra que estás colocando importa y que es muy importante entender el
353
+
354
+ 00:08:28.716 --> 00:08:32.536
355
+ significado de las palabras cuando estamos escribiendo un prompt. Es por eso
356
+
357
+ 00:08:32.536 --> 00:08:36.756
358
+ que siempre se recomienda que escribas prompts en tu lenguaje nativo, porque cuando
359
+
360
+ 00:08:36.756 --> 00:08:40.376
361
+ estás hablando un lenguaje que no es tu lenguaje nativo, pueden haber
362
+
363
+ 00:08:40.376 --> 00:08:46.316
364
+ muchos significados culturales o detalles de las palabras, sutilezas de las palabras que
365
+
366
+ 00:08:46.316 --> 00:08:49.436
367
+ no vas a alcanzar a capturar tú solo. Y sí lo vas
368
+
369
+ 00:08:49.436 --> 00:08:52.176
370
+ a lograr en el lenguaje con el que naciste, con el que empezaste
371
+
372
+ 00:08:52.176 --> 00:08:53.376
373
+ a hablar.
374
+
4-Cómo definir roles efectivos en prompts de IA.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:26714ee48e359f075d96072c9f32271fd8a94edccb17d1c32ff8d048d1922520
3
+ size 216507216
4-Cómo definir roles efectivos en prompts de IA.sub.vtt ADDED
@@ -0,0 +1,251 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.660 --> 00:00:04.840
4
+ Piensa en la última vez que pediste ayuda. Cuando lo fuiste a hacer,
5
+
6
+ 00:00:04.840 --> 00:00:08.760
7
+ ¿fuiste a la primera persona que se te ocurrió o pensaste: «¿Quién
8
+
9
+ 00:00:08.760 --> 00:00:12.880
10
+ sería la mejor persona que me podría ayudar a solucionar este problema?» La
11
+
12
+ 00:00:12.880 --> 00:00:17.340
13
+ diferencia entre estas dos aproximaciones pueden variar muchísimo el resultado y qué
14
+
15
+ 00:00:17.340 --> 00:00:20.260
16
+ tan efectiva es la ayuda que estás pidiendo. Si vas a la primera
17
+
18
+ 00:00:20.260 --> 00:00:25.080
19
+ persona que se te ocurrió, chance hay de que, eh, llegues a
20
+
21
+ 00:00:25.080 --> 00:00:27.640
22
+ la persona correcta que te pueda ayudar o que llegues a una persona
23
+
24
+ 00:00:27.640 --> 00:00:32.800
25
+ que te diga: «Híjole, no sabría qué decirte, pero puedes preguntarle a
26
+
27
+ 00:00:32.800 --> 00:00:38.660
28
+ fulanito». Es raro porque este proceso lo pensamos, escogemos a la persona y
29
+
30
+ 00:00:38.660 --> 00:00:42.380
31
+ vamos a decirle qué necesitamos. No es como que llegamos a donde
32
+
33
+ 00:00:42.380 --> 00:00:46.120
34
+ la persona y le decimos: «Oye, como tú eres eh, experto en marketing,
35
+
36
+ 00:00:46.120 --> 00:00:49.660
37
+ quiero hacerte esta pregunta». Pero la verdad es que este proceso que
38
+
39
+ 00:00:49.660 --> 00:00:53.860
40
+ hacemos, un poco inconsciente, es muy útil para la inteligencia artificial, como lo
41
+
42
+ 00:00:53.860 --> 00:00:57.920
43
+ vimos en la clase pasada. Esto se llama el rol, y vamos
44
+
45
+ 00:00:57.920 --> 00:01:01.380
46
+ a ver cómo lo podemos poner en práctica dentro de un prompt. Esta
47
+
48
+ 00:01:01.380 --> 00:01:05.899
49
+ transformación no es casualidad. Como vimos al inicio, cuando nos preguntamos quién
50
+
51
+ 00:01:05.900 --> 00:01:09.620
52
+ es la mejor persona que me podría ayudar, estamos optimizando a ir al
53
+
54
+ 00:01:09.620 --> 00:01:13.120
55
+ área de conocimiento que más nos ayudaría para el problema que tenemos.
56
+
57
+ 00:01:13.120 --> 00:01:17.500
58
+ En este caso, con la inteligencia artificial, estamos colocando el rol para que
59
+
60
+ 00:01:17.500 --> 00:01:23.440
61
+ modifiquemos ese espacio vectorial y lo llevemos al lugar o al área
62
+
63
+ 00:01:23.440 --> 00:01:28.080
64
+ de conocimiento que más nos ayudaría a solucionar este problema. Al final, estamos
65
+
66
+ 00:01:28.080 --> 00:01:33.320
67
+ activando patrones específicos del lenguaje que el modelo aprendió durante su entrenamiento.
68
+
69
+ 00:01:33.320 --> 00:01:36.760
70
+ Otra forma de pensarlo es como decirle a un empleado: «Este es tu
71
+
72
+ 00:01:36.760 --> 00:01:40.760
73
+ job description». De repente, el empleado ya sabe cómo comportarse, desde qué
74
+
75
+ 00:01:40.760 --> 00:01:44.450
76
+ lugar se espera abordar los problemas, entre otros factores que lo van a
77
+
78
+ 00:01:44.450 --> 00:01:48.320
79
+ ayudar a triunfar en el trabajo que se le designó. Pasa lo
80
+
81
+ 00:01:48.320 --> 00:01:53.520
82
+ mismo con los LLM. Veamos un ejemplo más, un poco más pequeño. Vamos
83
+
84
+ 00:01:53.520 --> 00:01:59.460
85
+ a preguntarle en un nuevo chat: «¿Qué es el clima?». Cuando hago
86
+
87
+ 00:01:59.460 --> 00:02:03.780
88
+ esta pregunta, me va a dar una respuesta genérica, donde me habla de
89
+
90
+ 00:02:03.780 --> 00:02:10.410
91
+ condiciones atmosféricas... Me dice cosas básicas, como temperatura, precipitaciones, humedad, vientos, presión
92
+
93
+ 00:02:10.410 --> 00:02:19.240
94
+ atmosférica, etcétera, etcétera, etcétera. Ahora hagamos un nuevo prompt. Digamos: «Actúa como climatólogo
95
+
96
+ 00:02:19.240 --> 00:02:27.859
97
+ experto y explícame qué es el clima. Yo soy un niño de
98
+
99
+ 00:02:27.860 --> 00:02:32.800
100
+ primaria». Y la respuesta la va a adaptar con la información que le
101
+
102
+ 00:02:32.800 --> 00:02:35.900
103
+ dimos. Entonces, lo primero es que empieza a usar emojis, porque ya
104
+
105
+ 00:02:35.900 --> 00:02:38.130
106
+ le dije que yo soy un niño, entonces asume que esto va a
107
+
108
+ 00:02:38.130 --> 00:02:42.300
109
+ ser, eh, más entretenido para mí. Y me dice: «Como climatólogo te
110
+
111
+ 00:02:42.300 --> 00:02:45.980
112
+ voy a explicar de manera sencilla. El clima es como la personalidad de
113
+
114
+ 00:02:45.980 --> 00:02:50.600
115
+ un lugar en la Tierra». Si te das cuenta, estos cambios permitieron
116
+
117
+ 00:02:50.600 --> 00:02:56.000
118
+ que la inteligencia artificial tomara más allá de que simplemente explicara algo diferente,
119
+
120
+ 00:02:56.000 --> 00:03:00.440
121
+ usar diferentes herramientas del lenguaje para llegar a solucionar el problema. En
122
+
123
+ 00:03:00.440 --> 00:03:04.840
124
+ este caso, está haciendo una analogía que, para un niño de primaria, haría
125
+
126
+ 00:03:04.840 --> 00:03:09.609
127
+ más fácil explicar qué es el clima. Donde en mi ejemplo anterior,
128
+
129
+ 00:03:09.609 --> 00:03:13.480
130
+ vemos una respuesta más genérica, más al estilo de Wikipedia. Acá quiero que
131
+
132
+ 00:03:13.480 --> 00:03:17.120
133
+ pares la clase y vamos a hacer un ejercicio interesante. Si estás
134
+
135
+ 00:03:17.120 --> 00:03:20.200
136
+ viendo esta clase, quiero que en los comentarios dejes cuál es tu rol
137
+
138
+ 00:03:20.200 --> 00:03:24.360
139
+ en tu empresa y me des una descripción de cien caracteres de
140
+
141
+ 00:03:24.360 --> 00:03:28.620
142
+ qué haces tú en ese rol. Veamos qué significan los roles en diferentes
143
+
144
+ 00:03:28.620 --> 00:03:32.040
145
+ empresas y en diferentes lugares. Es muy divertido y una cosa que
146
+
147
+ 00:03:32.040 --> 00:03:36.160
148
+ yo hago mucho con los LLM es preguntarles: «Para ti qué es un
149
+
150
+ 00:03:36.160 --> 00:03:40.420
151
+ community manager». Y con eso logro llegar al entendimiento de qué es
152
+
153
+ 00:03:40.420 --> 00:03:44.800
154
+ lo que el LLM interpreta por community manager y con eso saber si
155
+
156
+ 00:03:44.800 --> 00:03:48.600
157
+ es el rol más indicado para el problema que quiero resolver. Muchas
158
+
159
+ 00:03:48.600 --> 00:03:51.420
160
+ veces yo creo que para crear un guion para un TikTok, para un
161
+
162
+ 00:03:51.420 --> 00:03:57.160
163
+ Reel, necesito el community manager, pero resulta que es mejor un guionista.
164
+
165
+ 00:03:57.160 --> 00:04:01.200
166
+ Y solo lo voy a saber, no porque significa en el conocimiento común
167
+
168
+ 00:04:01.200 --> 00:04:06.180
169
+ de las personas que tengo alrededor, sino porque entiende el LLM qué
170
+
171
+ 00:04:06.180 --> 00:04:10.740
172
+ hace ese rol dentro de su entrenamiento. Con lo que aprendiste en este
173
+
174
+ 00:04:10.740 --> 00:04:15.520
175
+ módulo, quiero darte la estructura de un prompt efectivo. Pero recuerda, esta
176
+
177
+ 00:04:15.520 --> 00:04:19.100
178
+ estructura no es una regla de oro. Vimos que, con pequeños prompts logramos
179
+
180
+ 00:04:19.100 --> 00:04:23.419
181
+ resultados de lo que esperábamos. Piénsalo más como la forma de qué
182
+
183
+ 00:04:23.420 --> 00:04:26.680
184
+ preguntas hacerte para saber qué le hace falta a tu prompt para llegar
185
+
186
+ 00:04:26.680 --> 00:04:29.580
187
+ al resultado que esperas. Y la primera ya la vimos, y es
188
+
189
+ 00:04:29.580 --> 00:04:33.680
190
+ el rol. Al final, cuando seteamos un rol, estamos moviendo ese espacio vectorial
191
+
192
+ 00:04:33.680 --> 00:04:36.320
193
+ al área de conocimiento que más nos va a ayudar a resolver
194
+
195
+ 00:04:36.320 --> 00:04:41.120
196
+ este problema. El siguiente es el enfoque o la instrucción, y acá debe
197
+
198
+ 00:04:41.120 --> 00:04:46.120
199
+ ser claro y conciso. Recuerda, debes usar las palabras correctas para decir
200
+
201
+ 00:04:46.120 --> 00:04:49.260
202
+ lo que quieres decir. Y, en este caso, lo que debemos hacer es
203
+
204
+ 00:04:49.260 --> 00:04:53.380
205
+ ser directos con qué es lo que necesitamos que resuelva el LLM.
206
+
207
+ 00:04:53.380 --> 00:04:58.040
208
+ No es necesario pedir el favor, no es necesario agregar... palabras que decoren
209
+
210
+ 00:04:58.040 --> 00:05:01.720
211
+ la instrucción. Entre más preciso seas, más efectivo va a ser el
212
+
213
+ 00:05:01.720 --> 00:05:05.720
214
+ prompt. Lo siguiente es el contexto de la memoria, y acá piensa acerca
215
+
216
+ 00:05:05.720 --> 00:05:09.620
217
+ de esto como cuál es la información que necesita esta persona, o
218
+
219
+ 00:05:09.620 --> 00:05:14.060
220
+ en este caso el LLM, para resolver este problema. En nuestro ejercicio, el
221
+
222
+ 00:05:14.060 --> 00:05:17.760
223
+ contexto era el reporte de McKinsey. Sin ese reporte, no hubiéramos podido
224
+
225
+ 00:05:17.760 --> 00:05:22.040
226
+ llegar al resultado. Y los límites, piénsalos como cuál es la estructura de
227
+
228
+ 00:05:22.040 --> 00:05:26.060
229
+ lo que estás esperando como resultado. ¿Quieres que sea un resumen? ¿Quieres
230
+
231
+ 00:05:26.060 --> 00:05:29.580
232
+ que sea corto? ¿Quieres que sean bullet points? ¿Qué significa corto? Porque en
233
+
234
+ 00:05:29.580 --> 00:05:34.280
235
+ un libro podríamos decir que ochenta páginas es un libro corto. Entonces,
236
+
237
+ 00:05:34.280 --> 00:05:39.120
238
+ entre más específicos se hacen esos límites y haya menos ambigüedad donde especifiques
239
+
240
+ 00:05:39.120 --> 00:05:44.240
241
+ número de caracteres, cuántas oraciones, cuántas palabras, y uses adjetivos que ayuden
242
+
243
+ 00:05:44.240 --> 00:05:49.540
244
+ a llegar a ese, esa descripción que estás buscando, como «se accionable, sé
245
+
246
+ 00:05:49.540 --> 00:05:53.900
247
+ conciso, sé pragmático», vas a lograr tener el resultado que estabas esperando
248
+
249
+ 00:05:53.900 --> 00:05:55.240
250
+ en un solo prompt.
251
+
6-Comparación práctica de ChatGPT, Claude, Gemini y Microsoft Copilot.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b49d881d5e80fa86521a6f950757beb4533c8ad6e9d245fc97a1f7a42d1ab3a3
3
+ size 355141324
6-Comparación práctica de ChatGPT, Claude, Gemini y Microsoft Copilot.sub.vtt ADDED
@@ -0,0 +1,422 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.080 --> 00:00:07.700
4
+ Tienes cuatro asistentes virtuales: ChatGPT, Claude, Gemini y Microsoft Copilot. En principio parecen
5
+
6
+ 00:00:07.700 --> 00:00:13.719
7
+ iguales, pero no exactamente. Piensa que son cocineros con diferentes especialidades y
8
+
9
+ 00:00:13.720 --> 00:00:16.919
10
+ en esta clase te voy a enseñar a compararlos y a elegir cuál
11
+
12
+ 00:00:16.920 --> 00:00:19.800
13
+ es el que necesitas según la tarea que vas a resolver. Y
14
+
15
+ 00:00:19.800 --> 00:00:23.860
16
+ antes de hacer el ejercicio para comparar las cuatro herramientas, vamos a pensar
17
+
18
+ 00:00:23.860 --> 00:00:26.780
19
+ en un prompt. El prompt va a ser: ¿Cómo mejorar la productividad
20
+
21
+ 00:00:26.780 --> 00:00:29.840
22
+ del equipo? Esa es la pregunta que vamos a hacer. Y antes de
23
+
24
+ 00:00:29.840 --> 00:00:34.680
25
+ irnos a hacer esa pregunta, quiero que pienses qué esperarías como respuesta.
26
+
27
+ 00:00:34.680 --> 00:00:38.760
28
+ Piensa tres elementos clave y déjalo en los comentarios. Te pedí hacer esto
29
+
30
+ 00:00:38.760 --> 00:00:41.140
31
+ porque antes de ir a ver cuál es la respuesta que nos
32
+
33
+ 00:00:41.140 --> 00:00:45.640
34
+ va a dar cada uno de estos LLMs, quiero que tengas un criterio,
35
+
36
+ 00:00:45.640 --> 00:00:49.380
37
+ que tú sepas qué es lo que estás esperando como resultado para
38
+
39
+ 00:00:49.380 --> 00:00:53.990
40
+ poder evaluar cuál es el resultado que más funciona para ti, porque esto
41
+
42
+ 00:00:53.990 --> 00:00:57.540
43
+ es lo más frustrante de todo. No hay una herramienta que funcione
44
+
45
+ 00:00:57.540 --> 00:01:00.040
46
+ perfecta para todos, y lo que te voy a enseñar acá es que
47
+
48
+ 00:01:00.040 --> 00:01:03.420
49
+ lo puedas probar y tú decidas cuál es la herramienta que mejor
50
+
51
+ 00:01:03.420 --> 00:01:07.660
52
+ te funciona a ti al momento de resolver un problema. Entonces, vas a
53
+
54
+ 00:01:07.660 --> 00:01:11.340
55
+ abrir una cuenta gratis en las cuatro herramientas, en Gemini, en Claude,
56
+
57
+ 00:01:11.340 --> 00:01:16.480
58
+ en ChatGPT y en Microsoft Copilot. Una vez tengas abierta la cuenta, vamos
59
+
60
+ 00:01:16.480 --> 00:01:19.500
61
+ a ir a pegar un prompt. Para abrir las cuentas te voy
62
+
63
+ 00:01:19.500 --> 00:01:22.380
64
+ a dejar en los recursos los enlaces de las cuatro herramientas, con eso
65
+
66
+ 00:01:22.380 --> 00:01:25.700
67
+ es más fácil. Ya con las cuatro, vas a tenerlas en tu
68
+
69
+ 00:01:25.700 --> 00:01:31.140
70
+ navegador, ahí listadas los cuatro tab abiertos, porque es importante hacer este experimento
71
+
72
+ 00:01:31.140 --> 00:01:34.400
73
+ o el experimento que tú quieras hacer en el mismo momento, en
74
+
75
+ 00:01:34.400 --> 00:01:39.660
76
+ el mismo día, porque los modelos cambian constantemente. Entonces, para poder compararlos y
77
+
78
+ 00:01:39.660 --> 00:01:43.460
79
+ saber cuál es el mejor para lo que nosotros estamos esperando, es
80
+
81
+ 00:01:43.460 --> 00:01:47.620
82
+ mejor siempre correr las comparaciones en el mismo momento. Y acá tengo mi
83
+
84
+ 00:01:47.640 --> 00:01:51.620
85
+ prompt, que es cómo mejorar la productividad del equipo. Voy a enviarlo
86
+
87
+ 00:01:51.620 --> 00:01:56.140
88
+ en las cuatro herramientas mientras van pensando. Y quiero que sepan, estoy haciéndolo
89
+
90
+ 00:01:56.140 --> 00:01:59.580
91
+ en las versiones gratis, donde todas tenemos por lo menos un mensaje
92
+
93
+ 00:01:59.580 --> 00:02:04.100
94
+ en la que podemos probar y podemos ver el resultado sin necesidad de
95
+
96
+ 00:02:04.100 --> 00:02:07.360
97
+ pagar. Algo que hago yo es que voy probando cuáles son los
98
+
99
+ 00:02:07.360 --> 00:02:10.960
100
+ problemas que tengo en mi mes, voy viendo cuál es la mejor herramienta
101
+
102
+ 00:02:10.960 --> 00:02:13.840
103
+ y esa es la que pago durante ese mes. Si tengo el
104
+
105
+ 00:02:13.840 --> 00:02:17.840
106
+ chance de estar con dos herramientas porque veo que me funciona para solucionar
107
+
108
+ 00:02:17.840 --> 00:02:21.800
109
+ dos tipos de problema, pues ya se justifica cómo hacer esta inversión
110
+
111
+ 00:02:21.800 --> 00:02:26.060
112
+ y por qué hacerla. Quiero que veamos algo. Ya tenemos las respuestas. ChatGPT
113
+
114
+ 00:02:26.060 --> 00:02:32.520
115
+ me da seis ítems, bastante texto, luego Gemini me da un poco
116
+
117
+ 00:02:32.520 --> 00:02:37.940
118
+ menos de ítems, son cuatro ítems. Luego tenemos Claude, muy parecidas, incluso acá
119
+
120
+ 00:02:37.940 --> 00:02:41.720
121
+ se va por seis ítems también y luego tenemos Copilot. Y quiero
122
+
123
+ 00:02:41.720 --> 00:02:45.500
124
+ que notes que si vamos a juzgar las respuestas por su formato, pues
125
+
126
+ 00:02:45.500 --> 00:02:48.500
127
+ al final un mejor prompt podría hacer que el formato sea muy
128
+
129
+ 00:02:48.500 --> 00:02:52.380
130
+ parecido. Podría haber dicho que me dieran cuatro o cinco o seis, que
131
+
132
+ 00:02:52.380 --> 00:02:57.260
133
+ no usaran emojis, que fuera más pragmático, pero por eso hice el
134
+
135
+ 00:02:57.260 --> 00:03:01.760
136
+ ejercicio de parar y pensar qué es lo que yo estoy esperando. Porque
137
+
138
+ 00:03:01.760 --> 00:03:05.340
139
+ puede que yo lea esta respuesta de Microsoft Copilot y funcione para
140
+
141
+ 00:03:05.340 --> 00:03:10.460
142
+ mí. Y entonces, este es mi go to. Al final, debemos tener algo
143
+
144
+ 00:03:10.460 --> 00:03:17.620
145
+ en cuenta. Tenemos herramientas y tenemos modelos de LLMs. ChatGPT, Claude y
146
+
147
+ 00:03:17.620 --> 00:03:21.940
148
+ Gemini son empresas que se dedican a crear modelos. En el caso de
149
+
150
+ 00:03:21.940 --> 00:03:25.760
151
+ Claude, estamos hablando de la empresa Antropic y crean dos modelos: Opus
152
+
153
+ 00:03:25.760 --> 00:03:29.160
154
+ y Sonnet, que luego vamos a ver un poco más a detalle qué
155
+
156
+ 00:03:29.160 --> 00:03:32.500
157
+ significa cada uno de ellos. En el caso de Gemini, la empresa
158
+
159
+ 00:03:32.500 --> 00:03:37.180
160
+ por detrás es Google. Y Google crea este modelo Gemini, que es Gemini
161
+
162
+ 00:03:37.180 --> 00:03:41.359
163
+ 2.5 Pro y, y Gemini 2.5 Flash, que igual vamos a ver
164
+
165
+ 00:03:41.360 --> 00:03:46.400
166
+ en detalle qué significan. Luego tenemos ChatGPT, la empresa por detrás es OpenAI
167
+
168
+ 00:03:46.400 --> 00:03:50.460
169
+ y los modelos que crea son GPT, que se versionan en uno,
170
+
171
+ 00:03:50.460 --> 00:03:54.380
172
+ dos, tres, cuatro, y en este momento estamos en GPT cinco. En el
173
+
174
+ 00:03:54.380 --> 00:03:59.580
175
+ caso de Microsoft, no tenemos un modelo creado por Microsoft. Microsoft usa
176
+
177
+ 00:03:59.580 --> 00:04:04.240
178
+ los modelos de OpenAI llamados GPT, en este caso usa GPT cuatro y
179
+
180
+ 00:04:04.240 --> 00:04:07.180
181
+ tenemos la opción de habilitar GPT cinco, como lo vemos en la
182
+
183
+ 00:04:07.180 --> 00:04:11.600
184
+ parte de acá arriba. Pero Microsoft hace algo en especial, y es que
185
+
186
+ 00:04:11.600 --> 00:04:16.899
187
+ pone una capa intermedia entre Copilot y el modelo llamada Prometheus. Esa
188
+
189
+ 00:04:16.899 --> 00:04:21.339
190
+ capa lo que hace es orquestar el LLM con toda la información que
191
+
192
+ 00:04:21.339 --> 00:04:25.200
193
+ tiene Microsoft. Si estás en un entorno empresarial, tiene acceso a tus
194
+
195
+ 00:04:25.200 --> 00:04:30.440
196
+ correos y a tu OneDrive y puede usar esa información para dar respuestas.
197
+
198
+ 00:04:30.440 --> 00:04:34.460
199
+ Si no estás en una empresa, solo estás usando Microsoft Copilot, utiliza
200
+
201
+ 00:04:34.460 --> 00:04:39.100
202
+ por detrás el buscador de Bing cuando necesita información actualizada. Esa es la
203
+
204
+ 00:04:39.100 --> 00:04:45.180
205
+ diferencia entre usar Microsoft Copilot con ChatGPT. Y, dependiendo de cuáles son
206
+
207
+ 00:04:45.180 --> 00:04:47.450
208
+ las herramientas que uses en tu día a día, esto va a te--
209
+
210
+ 00:04:47.450 --> 00:04:50.600
211
+ te va a impactar de mayor manera o de menor manera. Por
212
+
213
+ 00:04:50.600 --> 00:04:53.880
214
+ ejemplo, todo lo que yo uso es la suite de Google Workspace. Y
215
+
216
+ 00:04:53.880 --> 00:04:57.560
217
+ en este caso, cuando yo entro a Gemini, no necesariamente ya está
218
+
219
+ 00:04:57.560 --> 00:05:01.440
220
+ conectado con eso, pero Gemini está presente en todas las aplicaciones de Google
221
+
222
+ 00:05:01.440 --> 00:05:06.420
223
+ y puedo usarlo de una manera como más, eh, certera en los
224
+
225
+ 00:05:06.420 --> 00:05:10.560
226
+ ambientes en donde lo necesito. Pero si yo quisiera llevarme ese contexto al
227
+
228
+ 00:05:10.560 --> 00:05:13.900
229
+ chat de Gemini, pues me lo tengo que traer para hacerlo posible.
230
+
231
+ 00:05:13.900 --> 00:05:17.000
232
+ Al final, cada una de estas herramientas tiene sus pros y sus contras
233
+
234
+ 00:05:17.000 --> 00:05:20.960
235
+ y depende de cuál es el caso de uso que yo tengo.
236
+
237
+ 00:05:20.960 --> 00:05:25.140
238
+ A lo que sí quiero darle doble clic es los modelos que tienen.
239
+
240
+ 00:05:25.140 --> 00:05:29.840
241
+ En Gemini, puedes ver que tienes un selector arriba donde puedes escoger
242
+
243
+ 00:05:29.840 --> 00:05:36.040
244
+ entre 2.5 Flash y 2.5 Pro, y me dice: «Rápido para cualquier ayuda
245
+
246
+ 00:05:36.040 --> 00:05:40.860
247
+ o razonamiento, matemática y código». Luego en ChatGPT, en la versión paga,
248
+
249
+ 00:05:40.860 --> 00:05:49.020
250
+ tienes bajo pensamiento, pensamiento y pro de la versión GPT cinco. En Claude,
251
+
252
+ 00:05:49.080 --> 00:05:53.420
253
+ tienes la opción de escoger entre Opus 4.1 y Sonnet, e igual
254
+
255
+ 00:05:53.420 --> 00:05:58.160
256
+ me dice: «Sonnet es inteligente, eficiente para el día a día». Y luego
257
+
258
+ 00:05:58.160 --> 00:06:02.719
259
+ dice que es el más poderoso, Opus, el más grande para retos
260
+
261
+ 00:06:02.720 --> 00:06:07.000
262
+ complejos. Y en Copilot no tengo opción de escoger, solo puedo escoger entre
263
+
264
+ 00:06:07.000 --> 00:06:12.350
265
+ GPT cuatro o GPT cinco.Ya que pensaste en eso, la verdad es
266
+
267
+ 00:06:12.350 --> 00:06:16.810
268
+ que puedes usar la misma analogía para pensar en estos modelos. La diferencia
269
+
270
+ 00:06:16.810 --> 00:06:21.290
271
+ entre un modelo rápido versus un modelo para tareas complejas es la
272
+
273
+ 00:06:21.290 --> 00:06:25.909
274
+ planificación o el razonamiento que hacen para resolver la tarea. En un modelo
275
+
276
+ 00:06:25.909 --> 00:06:31.150
277
+ rápido no tenemos un tiempo de planeación, es decir, lanzamos una pregunta
278
+
279
+ 00:06:31.150 --> 00:06:35.430
280
+ y responde de inmediato la respuesta que ya sea esté en su entrenamiento
281
+
282
+ 00:06:35.430 --> 00:06:39.770
283
+ o haya obtenido de internet. En un modelo de tareas complejas o
284
+
285
+ 00:06:39.770 --> 00:06:43.170
286
+ de razonamiento, lo que va a hacer es que va a obtener tu
287
+
288
+ 00:06:43.170 --> 00:06:46.950
289
+ prompt y va primero a preguntarse: ¿Cuáles son los pasos que necesito
290
+
291
+ 00:06:46.950 --> 00:06:51.950
292
+ hacer para resolver este problema? Esto se llama think step by step o
293
+
294
+ 00:06:51.950 --> 00:06:56.750
295
+ cadena de pensamiento. Y antes, cuando no teníamos esta idea de modelos
296
+
297
+ 00:06:56.750 --> 00:07:00.950
298
+ de razonamiento, teníamos que decirle en el prompt: «Piensa paso a paso cómo
299
+
300
+ 00:07:00.950 --> 00:07:06.510
301
+ resolver el problema» para inducir esta planeación y que primero pensara cómo
302
+
303
+ 00:07:06.510 --> 00:07:11.390
304
+ resolverlo y luego ejecutar esos pasos. Ahora no es necesario. Los modelos que
305
+
306
+ 00:07:11.390 --> 00:07:16.570
307
+ resuelven problemas complejos hacen esto que es pensar el paso a paso
308
+
309
+ 00:07:16.570 --> 00:07:20.030
310
+ y luego ejecutar ese paso a paso. Esto puede resultar en que es
311
+
312
+ 00:07:20.030 --> 00:07:26.170
313
+ más demorada la respuesta e incluso en que puede, eh, costar más.
314
+
315
+ 00:07:26.170 --> 00:07:29.430
316
+ Tenemos un módulo donde vamos a hablar de costos cuando estamos haciendo prompt
317
+
318
+ 00:07:29.430 --> 00:07:32.990
319
+ engineering. Lo que te invito es que cuando vayas a hacer un,
320
+
321
+ 00:07:32.990 --> 00:07:36.610
322
+ un prompt y tengas ese problema, pienses: ¿Esto es un problema en donde
323
+
324
+ 00:07:36.610 --> 00:07:39.170
325
+ yo tengo que planear el paso a paso o es un problema
326
+
327
+ 00:07:39.170 --> 00:07:44.450
328
+ que la respuesta es inmediata? Y si no es tan intuitivo, intenta siempre
329
+
330
+ 00:07:44.450 --> 00:07:47.370
331
+ con el modelo más rápido y cuando veas que no estás llegando
332
+
333
+ 00:07:47.370 --> 00:07:51.570
334
+ a la solución, pásate a probar en el modelo más complejo y ve
335
+
336
+ 00:07:51.570 --> 00:07:55.870
337
+ si el problema que estás tratando de resolver se logra solucionar. Durante
338
+
339
+ 00:07:55.870 --> 00:07:59.370
340
+ el curso, las técnicas de prompting te van a enseñar cuál es la
341
+
342
+ 00:07:59.370 --> 00:08:02.690
343
+ forma de hacer prompts efectivos para los modelos rápidos y cuál es
344
+
345
+ 00:08:02.690 --> 00:08:07.250
346
+ la forma de hacer pro-prompts efectivos para los modelos de razonamiento. Tu reto
347
+
348
+ 00:08:07.250 --> 00:08:11.490
349
+ para esta clase es, primero, identifica una tarea real de tu trabajo.
350
+
351
+ 00:08:11.490 --> 00:08:15.130
352
+ Segundo, vas a escribir un prompt claro. Recuerda lo que aprendimos en la
353
+
354
+ 00:08:15.130 --> 00:08:21.410
355
+ clase pasada: rol, enfoque, contexto y límites. Tercero, vas a probarlo en
356
+
357
+ 00:08:21.410 --> 00:08:25.550
358
+ las cuatro herramientas. Recuerda que es importante probarlo en el mismo día, en
359
+
360
+ 00:08:25.550 --> 00:08:29.990
361
+ el mismo momento para poder comparar de manera efectiva. Cuarto, vas a
362
+
363
+ 00:08:29.990 --> 00:08:33.930
364
+ evaluar los resultados con los criterios que aprendiste en esta clase. Y, por
365
+
366
+ 00:08:33.930 --> 00:08:37.130
367
+ último, vas a escoger el modelo que mejor se adaptó para la
368
+
369
+ 00:08:37.130 --> 00:08:41.350
370
+ tarea que le dejaste. Y déjame en los comentarios cuál fue el modelo
371
+
372
+ 00:08:41.350 --> 00:08:44.670
373
+ que más funcionó para la tarea. Con esto, la próxima vez que
374
+
375
+ 00:08:44.670 --> 00:08:49.550
376
+ necesites elegir entre ChatGPT, Claude, Gemini o Microsoft Copilot, ya tienes un método
377
+
378
+ 00:08:49.550 --> 00:08:53.830
379
+ sistemático para saber cuál es el mejor para responder a un problema.
380
+
381
+ 00:08:53.830 --> 00:08:56.850
382
+ Te diría que no te limites solamente porque se integra bien, como es
383
+
384
+ 00:08:56.850 --> 00:09:00.250
385
+ el caso de Copilot con la suite de Microsoft o de Gemini
386
+
387
+ 00:09:00.250 --> 00:09:03.850
388
+ con la suite de Google, sino que primero trates de resolver muy bien
389
+
390
+ 00:09:03.850 --> 00:09:07.790
391
+ el problema y luego, si hay uno que se integra mejor, veas
392
+
393
+ 00:09:07.790 --> 00:09:12.270
394
+ cuáles son las limitaciones que tiene frente al problema que estás resolviendo. Durante
395
+
396
+ 00:09:12.270 --> 00:09:16.090
397
+ el curso vamos a estar usando los cuatro y vamos a ver,
398
+
399
+ 00:09:16.090 --> 00:09:20.010
400
+ en cada uno de los ejercicios que hagamos, dónde brillan más, cuáles son
401
+
402
+ 00:09:20.010 --> 00:09:24.410
403
+ las cualidades que mejor funcionan. Y también te invito, explora las interfaces
404
+
405
+ 00:09:24.410 --> 00:09:27.730
406
+ de las cuatro herramientas. Lo más importante es saber dónde se cambian los
407
+
408
+ 00:09:27.730 --> 00:09:31.910
409
+ modos-- los modelos, dónde puedo subir archivos y, en general, van a
410
+
411
+ 00:09:31.910 --> 00:09:36.550
412
+ ser muy parecidos. En este curso no quiero explicarte la interfaz solo porque
413
+
414
+ 00:09:36.550 --> 00:09:40.130
415
+ cambian todo el tiempo y lo importante ya lo aprendiste: cómo subir
416
+
417
+ 00:09:40.130 --> 00:09:43.830
418
+ archivos, cómo escribir el prompt y dónde cambiar los modelos y qué significan
419
+
420
+ 00:09:43.830 --> 00:09:45.130
421
+ esos modelos.
422
+
7-Técnicas zero shot y few shot para prompts efectivos.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:515771e1f591417b29b0918d24738c01b8f7ad5f6bf597e93f098a8afdc6e0e7
3
+ size 339993634
7-Técnicas zero shot y few shot para prompts efectivos.sub.vtt ADDED
@@ -0,0 +1,386 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.240 --> 00:00:04.140
4
+ Volvamos a la analogía del practicante en la oficina. Esta persona es brillante,
5
+
6
+ 00:00:04.140 --> 00:00:08.959
7
+ es muy inteligente y tenemos que delegarle una tarea. Y puedes escoger
8
+
9
+ 00:00:08.960 --> 00:00:13.860
10
+ dos opciones: decirle que haga la tarea así, no más. Le dices la
11
+
12
+ 00:00:13.860 --> 00:00:17.760
13
+ instrucción y ya está. O puedes darle ejemplos de qué es lo
14
+
15
+ 00:00:17.760 --> 00:00:23.600
16
+ que esperas como resultado. Esta decisión puede ser bastante sencilla o simple, pero
17
+
18
+ 00:00:23.600 --> 00:00:25.640
19
+ sí va a ser la diferencia al momento en el que vas
20
+
21
+ 00:00:25.640 --> 00:00:29.680
22
+ a usar un LLM. Y es la diferencia entre dos técnicas de prompting:
23
+
24
+ 00:00:29.680 --> 00:00:33.760
25
+ zero shot y few shot. Empecemos con un ejemplo de zero shot,
26
+
27
+ 00:00:33.760 --> 00:00:37.720
28
+ porque hay situaciones en donde simplemente dar la instrucción está bien. Le vamos
29
+
30
+ 00:00:37.720 --> 00:00:42.820
31
+ a decir al practicante: «Traduce queso a francés». Así no más. No
32
+
33
+ 00:00:42.820 --> 00:00:48.330
34
+ necesita un ejemplo. Es suficientemente claro para que el practicante nos responda <|agent|><|es|>
35
+
36
+ 00:00:48.330 --> 00:00:50.780
37
+ Ahora, con few shot, vamos a ver cuáles son las tareas que
38
+
39
+ 00:00:50.780 --> 00:00:56.280
40
+ necesitan de ejemplos, porque... sí hay tareas donde los ejemplos van a reducir
41
+
42
+ 00:00:56.280 --> 00:00:59.620
43
+ la ambigüedad de la instrucción. Por ejemplo, si vamos a decirle al
44
+
45
+ 00:00:59.620 --> 00:01:05.269
46
+ practicante que clasifique las emociones entre negativo y positivo, pues en principio, las
47
+
48
+ 00:01:05.269 --> 00:01:08.660
49
+ emociones no son ni negativas ni positivas. Y sin duda, yo puedo
50
+
51
+ 00:01:08.660 --> 00:01:12.160
52
+ dar mejores instrucciones que van a dar más claridad y reducir la ambigüedad
53
+
54
+ 00:01:12.160 --> 00:01:16.800
55
+ de esta tarea que le estoy delegando. Pero dar ejemplos va a
56
+
57
+ 00:01:16.800 --> 00:01:20.710
58
+ permitir que la ambigüedad llegue lo más cercano a cero y va a
59
+
60
+ 00:01:20.710 --> 00:01:24.899
61
+ permitir detectar ciertos patrones que capaz no voy a ser capaz de
62
+
63
+ 00:01:24.900 --> 00:01:30.400
64
+ poner en palabras dentro de mi prompt. Entonces, vas a clasificar las emociones
65
+
66
+ 00:01:30.400 --> 00:01:35.140
67
+ en positivo o negativo. Un ejemplo de negativa es: tristeza, enojo y
68
+
69
+ 00:01:35.140 --> 00:01:43.300
70
+ miedo. Un ejemplo de positivo es: alegría, felicidad y emoción. Con esto, doy
71
+
72
+ 00:01:43.300 --> 00:01:48.200
73
+ una serie de ejemplos que van a permitir identificar patrones y mejorar
74
+
75
+ 00:01:48.200 --> 00:01:51.180
76
+ el resultado que estoy esperando. Vamos a irnos a Claude y vamos a
77
+
78
+ 00:01:51.180 --> 00:01:53.820
79
+ hacer un ejemplo un poco más aterrizado a lo que nos podríamos
80
+
81
+ 00:01:53.820 --> 00:01:57.460
82
+ enfrentar en la vida real. En este ejemplo vamos a hacer una publicación
83
+
84
+ 00:01:57.460 --> 00:02:03.740
85
+ de social media, en específico una publicación para Twitter o ahora X,
86
+
87
+ 00:02:03.740 --> 00:02:07.420
88
+ y vamos a dar ejemplos que nos permitan llegar a una publicación que
89
+
90
+ 00:02:07.420 --> 00:02:11.400
91
+ den alto engagement. Para este caso, los ejemplos que estoy agarrando es
92
+
93
+ 00:02:11.400 --> 00:02:14.580
94
+ que me fui al Twitter de Freddy y cogí los tweets que más
95
+
96
+ 00:02:14.580 --> 00:02:19.070
97
+ engagement tenían y los estoy colocando como ejemplo. Luego los tweets que,
98
+
99
+ 00:02:19.070 --> 00:02:23.650
100
+ [chasquido] perdón Freddy, pero no tuvieron tanto engagement y los estoy colocando como
101
+
102
+ 00:02:23.650 --> 00:02:27.320
103
+ ejemplo. Y vamos a ver cómo cambia los resultados si lo hacemos
104
+
105
+ 00:02:27.320 --> 00:02:30.680
106
+ con zero shot o lo hacemos con few shot. Vamos a abrir un
107
+
108
+ 00:02:30.680 --> 00:02:34.100
109
+ nuevo chat en Claude y vamos a partir de este prompt. Este
110
+
111
+ 00:02:34.100 --> 00:02:37.140
112
+ prompt, la base no va a cambiar en los dos ejemplos para que
113
+
114
+ 00:02:37.140 --> 00:02:41.180
115
+ podamos ver los resultados. «Actúa como social media manager y crea una
116
+
117
+ 00:02:41.180 --> 00:02:45.560
118
+ publicación para Twitter sobre el impacto de la inteligencia artificial en el trabajo
119
+
120
+ 00:02:45.560 --> 00:02:50.220
121
+ y el empleo que tenga alto engagement». Es más, podemos agregar acá
122
+
123
+ 00:02:50.220 --> 00:02:55.120
124
+ una coma para el «que tenga tanto engagement». Al final, la puntuación es
125
+
126
+ 00:02:55.120 --> 00:02:58.600
127
+ muy importante en los prompts porque determina mucho el significado de lo
128
+
129
+ 00:02:58.600 --> 00:03:03.020
130
+ que queremos decir. Con esto, lo enviamos y vamos a ver cuál es
131
+
132
+ 00:03:03.020 --> 00:03:06.300
133
+ el resultado que nos genera. «Aquí tienes una publicación de Twitter con
134
+
135
+ 00:03:06.300 --> 00:03:10.720
136
+ alto potencial de engagement». Me entendió perfecto. Y acá me dice: «La IA
137
+
138
+ 00:03:10.720 --> 00:03:14.540
139
+ no viene a robarnos el trabajo, viene a transformarlo. Mientras algunos roles
140
+
141
+ 00:03:14.540 --> 00:03:20.440
142
+ desaparecen, emergen otros que ni imaginábamos. Prompt Engineers, AI Ethics Specialists, Human AI
143
+
144
+ 00:03:20.440 --> 00:03:24.520
145
+ Collaboration Managers». Bla, bla, bla, bla, bla. Y me da una justificación
146
+
147
+ 00:03:24.520 --> 00:03:27.820
148
+ de por qué es bueno. La verdad es que a mí no me
149
+
150
+ 00:03:27.820 --> 00:03:32.840
151
+ encanta, me parece una publicación genérica que podría hacer cualquier social media
152
+
153
+ 00:03:32.840 --> 00:03:36.800
154
+ manager y como que no sería algo a lo que yo le daría
155
+
156
+ 00:03:36.800 --> 00:03:42.780
157
+ retweet. Ahora hagamos el ejemplo con few shot. Pongamos un par de
158
+
159
+ 00:03:42.780 --> 00:03:47.280
160
+ ejemplos de contenido que yo sí le di favorito, le di retweet, que
161
+
162
+ 00:03:47.280 --> 00:03:49.480
163
+ se alinea un poco más a lo que yo quiero decir, pero
164
+
165
+ 00:03:49.480 --> 00:03:53.120
166
+ que... al final no hay muchas palabras que yo pueda agregarle a este
167
+
168
+ 00:03:53.120 --> 00:03:56.859
169
+ prompt que vayan a capturar esa esencia. Y para eso tengo el
170
+
171
+ 00:03:56.860 --> 00:04:01.200
172
+ ejercicio de los tweets de alto engagement y bajo engagement del Twitter de
173
+
174
+ 00:04:01.200 --> 00:04:05.500
175
+ Freddy. Y lo voy a poner por acá. Veo tweets de alto
176
+
177
+ 00:04:05.500 --> 00:04:12.480
178
+ engagement. Veo tres que son este de acá, este de acá y este
179
+
180
+ 00:04:12.480 --> 00:04:19.760
181
+ de acá. Eeeh... Que va hasta por acá. Y ya empiezo a
182
+
183
+ 00:04:19.760 --> 00:04:23.660
184
+ ver un patrón. Son tweets un poco más largos, uno tiene emojis, tienen
185
+
186
+ 00:04:23.660 --> 00:04:27.600
187
+ datos un poco más duros, y luego tweets de bajo engagement. Son
188
+
189
+ 00:04:27.600 --> 00:04:33.760
190
+ mucho más cortos y no tienen casi información. Yo podría poner esto como
191
+
192
+ 00:04:33.760 --> 00:04:37.740
193
+ parte del prompt, pero incluso hay patrones que yo no estoy capturando
194
+
195
+ 00:04:37.740 --> 00:04:40.960
196
+ como persona que le van a ayudar al LLM a hacer un mejor
197
+
198
+ 00:04:40.960 --> 00:04:47.400
199
+ trabajo. Vamos a ver el resultado como social media manager. Acá tienes
200
+
201
+ 00:04:47.400 --> 00:04:52.060
202
+ la-- el tweet. Dice: «Plot twist! La AI no va a robar tu
203
+
204
+ 00:04:52.060 --> 00:04:56.380
205
+ trabajo, va a crear trabajos que ni sabíamos que existían. Hace quince
206
+
207
+ 00:04:56.380 --> 00:05:00.440
208
+ años nadie era creador de contenido o especialista en UX. Hoy hay cincuenta
209
+
210
+ 00:05:00.440 --> 00:05:03.860
211
+ millones. La pregunta no es ¿me van a reemplazar? Es cómo me
212
+
213
+ 00:05:03.860 --> 00:05:08.360
214
+ voy a reinventar». Sin duda, la diferencia es gigante. Si yo me voy
215
+
216
+ 00:05:08.360 --> 00:05:12.180
217
+ a ir y veo esto desde un criterio de persona que hace
218
+
219
+ 00:05:12.180 --> 00:05:16.450
220
+ marketing, acá tengo algo genérico que no me da o me incita a
221
+
222
+ 00:05:16.450 --> 00:05:20.880
223
+ la conversación, no lleva a que algo pase con el tweet cuando
224
+
225
+ 00:05:20.880 --> 00:05:24.420
226
+ lo lea y de hecho, incluso tiene hashtags que podría ser algo de
227
+
228
+ 00:05:24.420 --> 00:05:30.680
229
+ 2015. Pero si me veo acá, el resultado que tengo, primero empieza
230
+
231
+ 00:05:30.680 --> 00:05:36.300
232
+ con un hook muy claro. Segundo, me da una serie de datos específicos
233
+
234
+ 00:05:36.300 --> 00:05:41.210
235
+ y me lleva a responder el tweet. Incluso si estoy de acuerdo,
236
+
237
+ 00:05:41.210 --> 00:05:45.200
238
+ de seguro si soy un especialista en UX, voy a querer compartir esto
239
+
240
+ 00:05:45.200 --> 00:05:51.270
241
+ y mostrar cómo, eeeh, cómo esto apoya la revolución que está pasando.
242
+
243
+ 00:05:51.270 --> 00:05:55.680
244
+ Y de hecho, acá me dice los patrones que encontró, eh, dentro del
245
+
246
+ 00:05:55.680 --> 00:06:00.100
247
+ contenido que le pasé. Como viste, few shot nos dio mejores resultados,
248
+
249
+ 00:06:00.100 --> 00:06:03.468
250
+ pero la verdad es que-No es una mejor que otra, va a depender
251
+
252
+ 00:06:03.468 --> 00:06:06.078
253
+ de la tarea. Te voy a dejar tres preguntas que te van
254
+
255
+ 00:06:06.078 --> 00:06:08.668
256
+ a ayudar a decidir si es mejor few shot o zero shot para
257
+
258
+ 00:06:08.668 --> 00:06:12.928
259
+ atacar un problema, pero en general te recomiendo que siempre intentes ambas
260
+
261
+ 00:06:12.928 --> 00:06:18.028
262
+ cosas y veas cuál es el mejor resultado. Las preguntas son: ¿Hay ambigüedad
263
+
264
+ 00:06:18.028 --> 00:06:21.568
265
+ en la tarea que voy a resolver? ¿Es una tarea que yo
266
+
267
+ 00:06:21.568 --> 00:06:27.448
268
+ considero compleja? ¿Necesito precisión o replicar un formato en mi tarea? Si las
269
+
270
+ 00:06:27.448 --> 00:06:30.768
271
+ tres respuestas son sí, lo más probable es que few shot sea
272
+
273
+ 00:06:30.768 --> 00:06:36.148
274
+ la mejor solución. Pero ahora, también puedes equivocarte haciendo few shot y hay
275
+
276
+ 00:06:36.148 --> 00:06:39.728
277
+ unas consideraciones que quiero que tengas en cuenta. La primera de las
278
+
279
+ 00:06:39.728 --> 00:06:45.028
280
+ consideraciones en few shot prompting es cuántos ejemplos le damos. Muy pocos ejemplos
281
+
282
+ 00:06:45.028 --> 00:06:49.108
283
+ no me va a permitir tener suficiente información para detectar patrones y
284
+
285
+ 00:06:49.108 --> 00:06:55.468
286
+ reducir la ambigüedad del prompt. Demasiados ejemplos va a dar unos límites muy
287
+
288
+ 00:06:55.468 --> 00:06:59.408
289
+ claros que cuando llegan casos que no están contemplados, no va a
290
+
291
+ 00:06:59.408 --> 00:07:03.508
292
+ poder saber cuál es la respuesta correcta y va a empezar a alucinar.
293
+
294
+ 00:07:03.508 --> 00:07:06.528
295
+ Los papers nos dicen que lo ideal es entre tres a siete
296
+
297
+ 00:07:06.528 --> 00:07:09.998
298
+ ejemplos. Lo que yo te recomiendo es que pruebes, pero cada vez que
299
+
300
+ 00:07:09.998 --> 00:07:14.248
301
+ pruebes un prompt, si tienes muchos casos de uso, lo pruebes con
302
+
303
+ 00:07:14.248 --> 00:07:17.628
304
+ muchos casos de uso cada vez que hacemos el cambio al prompt, para
305
+
306
+ 00:07:17.628 --> 00:07:22.268
307
+ poder ver dónde estamos fallando, qué patrones está identificando y dónde se
308
+
309
+ 00:07:22.268 --> 00:07:26.488
310
+ está quedando corto. Ahora, no solo es el número de ejemplos, también es
311
+
312
+ 00:07:26.488 --> 00:07:30.828
313
+ la variedad. Cuando estamos clasificando emociones o en este caso que estábamos
314
+
315
+ 00:07:30.828 --> 00:07:35.808
316
+ viendo que queríamos reducir la ambigüedad de la palabra alto engagement, tenemos que
317
+
318
+ 00:07:35.808 --> 00:07:39.918
319
+ mostrar lo que sí y lo que no. Es decir, mostramos qué
320
+
321
+ 00:07:39.918 --> 00:07:44.588
322
+ es alto engagement con tres ejemplos y qué es bajo engagement con tres
323
+
324
+ 00:07:44.588 --> 00:07:50.228
325
+ ejemplos. Con eso podemos dar más disposición a los patrones que estamos
326
+
327
+ 00:07:50.228 --> 00:07:56.798
328
+ creando dentro del LLM. En clasificación de emociones positivas o negativas, debemos mostrar
329
+
330
+ 00:07:56.798 --> 00:07:59.818
331
+ qué es positivo y qué es negativo, porque el hecho de solo
332
+
333
+ 00:07:59.818 --> 00:08:03.808
334
+ mostrar el positivo o solo mostrar el negativo va a generar sesgos en
335
+
336
+ 00:08:03.808 --> 00:08:07.648
337
+ el modelo que no van a reducir la ambigüedad. De nuevo, vamos
338
+
339
+ 00:08:07.648 --> 00:08:12.078
340
+ a caer en ejemplos que no contemplan casos de uso que no pensamos
341
+
342
+ 00:08:12.078 --> 00:08:15.247
343
+ al momento de crear la solución. Por último, y una cosa que
344
+
345
+ 00:08:15.248 --> 00:08:19.868
346
+ debimos haber hecho mejor en nuestro prompt de, eh, redes sociales, es que
347
+
348
+ 00:08:19.868 --> 00:08:24.148
349
+ el orden también importa. Se ha demostrado que el orden puede afectar
350
+
351
+ 00:08:24.148 --> 00:08:27.478
352
+ en un-- de un cincuenta a un noventa por ciento la efectividad del
353
+
354
+ 00:08:27.478 --> 00:08:32.207
355
+ prompt. Lo correcto es que los órdenes vayan aleatorios. Al final, lo
356
+
357
+ 00:08:32.207 --> 00:08:35.367
358
+ que va de últimas en nuestro prompt es a lo que más atención
359
+
360
+ 00:08:35.367 --> 00:08:39.888
361
+ le pone el LLM. Entonces, si solo tenemos lo negativo de últimas,
362
+
363
+ 00:08:39.888 --> 00:08:44.028
364
+ podemos generar un sesgo. En nuestro caso, generó un gran tuit. Pero imagínate
365
+
366
+ 00:08:44.028 --> 00:08:46.568
367
+ que este prompt lo vas a usar todos los días para cualquier
368
+
369
+ 00:08:46.568 --> 00:08:50.698
370
+ tema que quieres crear contenido. En alguno de los temas, ese sesgo va
371
+
372
+ 00:08:50.698 --> 00:08:54.188
373
+ a importar y va a darnos un resultado que no va a
374
+
375
+ 00:08:54.188 --> 00:08:58.168
376
+ ser lo que nosotros esperábamos. Entonces, recuerda, en cuanto a orden, lo mejor
377
+
378
+ 00:08:58.168 --> 00:09:01.308
379
+ es variarlo, que sea aleatorio. Uno sí, uno no, uno sí, uno
380
+
381
+ 00:09:01.308 --> 00:09:04.728
382
+ no, uno sí, uno no. Y con eso vamos a optimizar la atención
383
+
384
+ 00:09:04.728 --> 00:09:07.648
385
+ del modelo para este ejemplo que estamos tratando de resolver.
386
+
8-Estructura de prompts con etiquetas XML para IA.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3cfeced360bc31a8c7dadc20667a33b87497f1868a70a0e5df0843cdc43acfce
3
+ size 469380492
8-Estructura de prompts con etiquetas XML para IA.sub.vtt ADDED
@@ -0,0 +1,641 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.080 --> 00:00:03.200
4
+ En la clase pasada probamos un prompt que era un poco más complejo
5
+
6
+ 00:00:03.200 --> 00:00:05.520
7
+ de lo que habíamos hecho hasta ahora en el curso. Vamos a
8
+
9
+ 00:00:05.520 --> 00:00:09.940
10
+ verlo. En Claude llegamos y pusimos este prompt donde dijimos: «Actúa como social
11
+
12
+ 00:00:09.940 --> 00:00:12.920
13
+ media manager y crea una publicación de Twitter para el impacto de
14
+
15
+ 00:00:12.920 --> 00:00:16.340
16
+ la IA en el trabajo y el empleo que tenga alto engagement». Y
17
+
18
+ 00:00:16.340 --> 00:00:20.860
19
+ pusimos unos ejemplos de tweets de alto engagement y bajo engagement. Todo
20
+
21
+ 00:00:20.860 --> 00:00:28.050
22
+ esto para aprender cómo hacer zero shot y few shot prompting. Ahora, honestamente,
23
+
24
+ 00:00:28.050 --> 00:00:33.860
25
+ viendo este prompt, pues es un poquito difícil de leer. Incluso ahorita
26
+
27
+ 00:00:33.860 --> 00:00:38.660
28
+ que me detengo a verlo, poder ver cuáles son los tres tweets exactamente
29
+
30
+ 00:00:38.660 --> 00:00:43.940
31
+ es-- es visualmente difícil. Va a pasar esto a un documento y
32
+
33
+ 00:00:43.940 --> 00:00:47.640
34
+ dentro de eso-- del documento vamos a hablar un poco sobre cómo estructurar
35
+
36
+ 00:00:47.640 --> 00:00:51.780
37
+ mejor un prompt para que nosotros lo podamos entender mejor y también
38
+
39
+ 00:00:51.780 --> 00:00:56.320
40
+ para que la inteligencia artificial lo pueda entender mejor. Entonces, acá ya lo
41
+
42
+ 00:00:56.320 --> 00:01:01.220
43
+ tengo dentro de un documento y quiero que hagamos un par de
44
+
45
+ 00:01:01.220 --> 00:01:06.460
46
+ modificaciones que nos van a ayudar a ver mejor este prompt, a entenderlo
47
+
48
+ 00:01:06.460 --> 00:01:13.039
49
+ mejor. Como por ejemplo, podríamos poner esto como un título. Acá tenemos
50
+
51
+ 00:01:13.040 --> 00:01:17.410
52
+ tweets de alto engagement, luego acá tweets de bajo engagement. Le voy a
53
+
54
+ 00:01:17.410 --> 00:01:21.600
55
+ poner el mismo título. Y luego, pues sabemos que cada uno de
56
+
57
+ 00:01:21.600 --> 00:01:24.400
58
+ los tweets está como una lista, pero visualmente no se ve como una
59
+
60
+ 00:01:24.400 --> 00:01:26.940
61
+ lista. Entonces voy a hacer eso mismo, voy a ponerlo como una
62
+
63
+ 00:01:26.940 --> 00:01:33.300
64
+ lista y que visualmente, sobre todo si el tweet tiene saltos de línea,
65
+
66
+ 00:01:33.300 --> 00:01:36.740
67
+ pues se conserven, pero dentro de la lista. Entonces tengo que ir
68
+
69
+ 00:01:36.740 --> 00:01:45.180
70
+ haciendo esto. Voy a ir acá. Y lo voy a terminar de modificar.
71
+
72
+ 00:01:45.180 --> 00:01:50.980
73
+ Y por ejemplo, en este caso creo en-- un nuevo bullet porque
74
+
75
+ 00:01:50.980 --> 00:01:54.840
76
+ es el nuevo tweet. Y entonces acá tengo que mantener los espacios y
77
+
78
+ 00:01:54.840 --> 00:02:00.480
79
+ luego tenemos este por acá. Y vamos a terminar con este de
80
+
81
+ 00:02:00.480 --> 00:02:04.340
82
+ por acá, que es el que más saltos de líneas tiene. Y pues
83
+
84
+ 00:02:04.340 --> 00:02:07.780
85
+ al final, incluso los saltos de líneas son información, ¿no? Porque nos
86
+
87
+ 00:02:07.780 --> 00:02:12.400
88
+ están diciendo cómo es la estructura del tweet que funciona. Y bueno, los
89
+
90
+ 00:02:12.400 --> 00:02:15.420
91
+ tweets de bajo engagement la verdad es que tienen menos de este
92
+
93
+ 00:02:15.420 --> 00:02:22.109
94
+ juego, entonces está mucho más fácil poderlos formatear. Y de acá termino con...
95
+
96
+ 00:02:22.109 --> 00:02:24.880
97
+ Ah, no, este no es un nuevo tweet. Termino con este de
98
+
99
+ 00:02:24.880 --> 00:02:32.140
100
+ acá, que es el último. Y solo con este cambio, de repente es
101
+
102
+ 00:02:32.140 --> 00:02:35.620
103
+ mucho más fácil leerlo. Ya sé que acá está el prompt base,
104
+
105
+ 00:02:35.620 --> 00:02:39.700
106
+ ya sé que acá empiezan los ejemplos, ya sé que este es un
107
+
108
+ 00:02:39.760 --> 00:02:43.900
109
+ tweet, ya sé que este es otro tweet, que este es otro
110
+
111
+ 00:02:43.900 --> 00:02:49.430
112
+ tweet. Y luego tenemos acá los de bajo engagement y puedo ver los
113
+
114
+ 00:02:49.430 --> 00:02:55.680
115
+ tres perfectamente. Incluso yo podría decir acá: «Mira, estos son ejemplos». Y
116
+
117
+ 00:02:55.680 --> 00:02:58.180
118
+ para seguir con la estructura de nuestro texto, le vamos a dar un
119
+
120
+ 00:02:58.180 --> 00:03:02.160
121
+ un título de, de Heading dos. Luego acá le vamos a dar
122
+
123
+ 00:03:02.160 --> 00:03:08.620
124
+ Heading tres. Eh, y acá Heading tres y ya. Acá está mucho más
125
+
126
+ 00:03:08.620 --> 00:03:14.660
127
+ visible, mucho más claro. Cualquier persona podría entrar, verlo y leerlo. Y
128
+
129
+ 00:03:14.660 --> 00:03:17.680
130
+ de hecho, Google Docs hace algo bien interesante. Esto solo es un dato
131
+
132
+ 00:03:17.680 --> 00:03:21.560
133
+ curioso y es que con los títulos me va generando como este
134
+
135
+ 00:03:21.560 --> 00:03:29.200
136
+ índice y lo puedo navegar incluso más fácil. Entonces, con estos cambios copiemos
137
+
138
+ 00:03:29.200 --> 00:03:32.480
139
+ y vámonos a ir a Claude en un nuevo chat y lo
140
+
141
+ 00:03:32.480 --> 00:03:37.240
142
+ voy a pegar. Incluso cuando lo envío y veo, pues la verdad es
143
+
144
+ 00:03:37.240 --> 00:03:39.260
145
+ que se ve muy parecido a lo que tenía en la otra
146
+
147
+ 00:03:39.260 --> 00:03:43.040
148
+ conversación. O sea, de hecho perdió mucho del formato visual que yo le
149
+
150
+ 00:03:43.040 --> 00:03:46.240
151
+ había dado. Y la clave está ahí. Cuando yo estoy en un
152
+
153
+ 00:03:46.240 --> 00:03:50.860
154
+ documento de Word o de Google Docs, toda la estructura que nosotros le
155
+
156
+ 00:03:50.860 --> 00:03:54.579
157
+ damos es una estructura visual que a nosotros como humanos nos ayuda
158
+
159
+ 00:03:54.580 --> 00:03:59.500
160
+ a entender dónde inician, dónde terminan las cosas y que sea más legible.
161
+
162
+ 00:03:59.500 --> 00:04:03.680
163
+ El problema es que eso lo tenemos que traducir a la máquina,
164
+
165
+ 00:04:03.680 --> 00:04:08.360
166
+ a la inteligencia artificial. Y no va a ser tan complejo. Existe una,
167
+
168
+ 00:04:08.360 --> 00:04:12.700
169
+ una convención que se llaman etiquetas XML, que se crearon para traducir
170
+
171
+ 00:04:12.700 --> 00:04:16.420
172
+ este mismo formato que nosotros tenemos en un documento que es visual a
173
+
174
+ 00:04:16.420 --> 00:04:19.350
175
+ algo que las máquinas puedan entender. Y de hecho, como un dato
176
+
177
+ 00:04:19.350 --> 00:04:26.020
178
+ curioso, así está construido por detrás internet. Esas etiquetas XML-- XML eventualmente evolucionaron
179
+
180
+ 00:04:26.020 --> 00:04:30.540
181
+ a ser el HTML que constituye una página. Y pareciera que estamos
182
+
183
+ 00:04:30.540 --> 00:04:33.380
184
+ hablando de algo complejo y algo muy técnico, pues la verdad es que
185
+
186
+ 00:04:33.380 --> 00:04:36.120
187
+ es algo que ya sabes hacer. Lo que haces en un documento
188
+
189
+ 00:04:36.120 --> 00:04:41.020
190
+ de Google Docs, en un documento de Google Word, estas etiquetas XML eventualmente
191
+
192
+ 00:04:41.020 --> 00:04:44.900
193
+ evolucionaron a lo que es HTML, que aunque suena un poco como
194
+
195
+ 00:04:44.900 --> 00:04:48.400
196
+ código y como que se está poniendo técnico, la verdad es que simplemente
197
+
198
+ 00:04:48.400 --> 00:04:51.680
199
+ es un lenguaje que permite traducir esa sintaxis o esa jerarquía de
200
+
201
+ 00:04:51.680 --> 00:04:55.680
202
+ la información a algo que las máquinas entiendan. Entonces, vamos a copiar este
203
+
204
+ 00:04:55.680 --> 00:04:58.680
205
+ documento y nos vamos a ir a un nuevo documento. Vamos a
206
+
207
+ 00:04:58.680 --> 00:05:03.860
208
+ empezar de cero. Y lo voy a pegar sin ningún tipo de formato,
209
+
210
+ 00:05:03.860 --> 00:05:07.340
211
+ igual como lo vimos en Claude. Y la forma en la que
212
+
213
+ 00:05:07.340 --> 00:05:11.120
214
+ vamos a empezar a darle formato a esto para que sea entendible es
215
+
216
+ 00:05:11.120 --> 00:05:17.299
217
+ que tenemos las etiquetas que empiezan con el signo de menor mayor,
218
+
219
+ 00:05:17.640 --> 00:05:21.760
220
+ y en el medio va una palabra descriptiva. Puede ser una palabra o
221
+
222
+ 00:05:21.760 --> 00:05:24.480
223
+ una frase. Lo importante es que describa qué es lo que va
224
+
225
+ 00:05:24.480 --> 00:05:29.980
226
+ a contener esta etiqueta. Entonces, por ejemplo, podemos decir ejemplos. Y vamos a
227
+
228
+ 00:05:29.980 --> 00:05:35.040
229
+ cerrar la etiqueta con el símbolo de mayor menor. Entonces, esto indica
230
+
231
+ 00:05:35.040 --> 00:05:39.620
232
+ que un contenido está por iniciar. En este caso, los ejemplos que estamos
233
+
234
+ 00:05:39.620 --> 00:05:43.920
235
+ viendo acá. Entonces ya puedo reemplazar esta palabra por la etiqueta. Y
236
+
237
+ 00:05:43.920 --> 00:05:47.880
238
+ lo más importante que tiene que entender una máquina es dónde inicia algo
239
+
240
+ 00:05:47.880 --> 00:05:54.780
241
+ y dónde termina. Nosotros, a nivel visual, en nuestro documento, sabemos que
242
+
243
+ 00:05:54.780 --> 00:05:59.740
244
+ los ejemplos inician acá y, pues no tienen nada más al fondo. Pero
245
+
246
+ 00:05:59.740 --> 00:06:10.110
247
+ si yo quisiera decir acá: «Eh, haz tres tweets y yo escogeré».El
248
+
249
+ 00:06:10.110 --> 00:06:14.530
250
+ mejor. Por el contexto de la frase, yo puedo saber que esto ya
251
+
252
+ 00:06:14.530 --> 00:06:19.190
253
+ no hace parte de los ejemplos, pero no hay ninguna pista visual
254
+
255
+ 00:06:19.190 --> 00:06:24.300
256
+ que me ayude a tener ese contexto. La máquina también podría agarrar esto,
257
+
258
+ 00:06:24.300 --> 00:06:27.590
259
+ la inteligencia artificial también lo podría agarrar por el contexto, como ya
260
+
261
+ 00:06:27.590 --> 00:06:31.690
262
+ vimos la manera en la que entiende las sutilezas del lenguaje, pero lo
263
+
264
+ 00:06:31.690 --> 00:06:35.110
265
+ mejor es evitar la ambigüedad, lo mejor es poderle decir dónde acaban
266
+
267
+ 00:06:35.110 --> 00:06:39.570
268
+ las cosas. Y la forma en la que nosotros decimos que algo terminó
269
+
270
+ 00:06:39.570 --> 00:06:42.890
271
+ a nivel de etiquetas, es que volvemos a poner la misma etiqueta
272
+
273
+ 00:06:42.890 --> 00:06:47.610
274
+ que teníamos, pero vamos a modificarla y le vamos a poner un slash,
275
+
276
+ 00:06:47.610 --> 00:06:53.370
277
+ una barrita que me diga: «Ahí terminó los ejemplos». Entonces, si te
278
+
279
+ 00:06:53.370 --> 00:06:57.930
280
+ das cuenta, acá ya tenemos una delimitación que me dice: «Estos son los
281
+
282
+ 00:06:57.930 --> 00:07:03.510
283
+ ejemplos». Y si yo acá continúo y digo: «Haz tres opciones de
284
+
285
+ 00:07:03.510 --> 00:07:10.610
286
+ tweet para escoger el mejor», ya va a ser claro que esto no
287
+
288
+ 00:07:10.610 --> 00:07:14.310
289
+ hace parte de los ejemplos. Ahora tenemos ejemplos de tweets de alto
290
+
291
+ 00:07:14.310 --> 00:07:21.630
292
+ engagement y tenemos ejemplos de tweets de bajo engagement. Pero además, estos tweets,
293
+
294
+ 00:07:21.630 --> 00:07:26.430
295
+ este es un tweet, porque lo recuerdo, este es otro tweet, porque
296
+
297
+ 00:07:26.430 --> 00:07:30.670
298
+ lo recuerdo, y este es otro tweet. De otra manera, no tengo forma
299
+
300
+ 00:07:30.670 --> 00:07:33.749
301
+ de saber dónde inicia y dónde termina. Solo mi memoria en este
302
+
303
+ 00:07:33.750 --> 00:07:38.880
304
+ momento. Entonces, vamos a hacer una etiqueta más. Vamos a poner la etiqueta
305
+
306
+ 00:07:38.880 --> 00:07:44.130
307
+ tweet. Literalmente, yo escojo la palabra que quiero poner para decir la
308
+
309
+ 00:07:44.130 --> 00:07:48.670
310
+ etiqueta. Si quiero poner pajarito, pongo pajarito. El problema de poner palabras que
311
+
312
+ 00:07:48.670 --> 00:07:52.670
313
+ no sean descriptivas es que hacen parte del, del prompt. Entonces, lo
314
+
315
+ 00:07:52.670 --> 00:07:56.390
316
+ mejor es poner palabras descriptivas. Y voy a decirle que este es un
317
+
318
+ 00:07:56.390 --> 00:08:04.170
319
+ tweet y que termina acá. Entonces, abro signo mayor menor, tweet, cierro
320
+
321
+ 00:08:04.170 --> 00:08:10.150
322
+ con mayor menor, y luego, con el slash digo que termino. Y yo
323
+
324
+ 00:08:10.150 --> 00:08:14.030
325
+ puedo repetirlo tantas veces quiera. En este caso tengo seis tweets, entonces,
326
+
327
+ 00:08:14.030 --> 00:08:19.610
328
+ acabo de poner la misma etiqueta de tweet y por acá esta terminaba
329
+
330
+ 00:08:19.810 --> 00:08:25.130
331
+ acá. Luego voy a poner la etiqueta de tweet y la termino
332
+
333
+ 00:08:25.130 --> 00:08:29.850
334
+ acá. Y luego tenemos los tweets de bajo engagement. De una vez hagamos
335
+
336
+ 00:08:29.870 --> 00:08:37.370
337
+ eso. La pongo acá. La termino en... Acá sí ya no me
338
+
339
+ 00:08:37.370 --> 00:08:41.270
340
+ acuerdo, entonces, voy a irme al otro documento que está más visual. Es
341
+
342
+ 00:08:41.270 --> 00:08:48.730
343
+ en donde dice cien, acá la termino . Luego, la inicio para
344
+
345
+ 00:08:48.730 --> 00:08:56.470
346
+ este, la termino. Y luego, la inicio para este y la termino. Y
347
+
348
+ 00:08:56.470 --> 00:08:59.050
349
+ con esto ya le estoy diciendo a la máquina dónde inicia el
350
+
351
+ 00:08:59.050 --> 00:09:02.450
352
+ tweet, dónde termina el tweet. Y lo último que yo podría hacer es
353
+
354
+ 00:09:02.450 --> 00:09:07.270
355
+ decirle cuándo son de alto engagement o cuándo son de bajo engagement.
356
+
357
+ 00:09:07.270 --> 00:09:10.970
358
+ Y en la clase pasada vimos que teníamos una oportunidad de mejora en
359
+
360
+ 00:09:10.970 --> 00:09:17.290
361
+ este prompt de few-shot. Y era poner de manera aleatoria los tweets
362
+
363
+ 00:09:17.290 --> 00:09:23.250
364
+ de alto engagement y bajo engagement para incrementar la probabilidad de que acerte
365
+
366
+ 00:09:23.250 --> 00:09:27.390
367
+ en qué significa alto engagement y bajo engagement. Entonces, voy a aprovechar
368
+
369
+ 00:09:27.390 --> 00:09:30.890
370
+ las etiquetas y voy a poner que este es un tweet de alto
371
+
372
+ 00:09:30.890 --> 00:09:37.490
373
+ engagement. En este caso, cuando estoy colocando una frase, en lugar de
374
+
375
+ 00:09:37.490 --> 00:09:40.990
376
+ poner espacios, pongo guiones para que sea claro que es parte de la
377
+
378
+ 00:09:40.990 --> 00:09:44.390
379
+ etiqueta. Y lo único que voy a hacer es cambiar esto mismo
380
+
381
+ 00:09:44.390 --> 00:09:51.070
382
+ acá, pero cerrándola. La etiqueta de apertura y de cierre deben ser idénticas.
383
+
384
+ 00:09:51.070 --> 00:09:55.870
385
+ Lo mismo voy a hacer acá y cerrándola. Lo mismo voy a
386
+
387
+ 00:09:55.870 --> 00:10:01.670
388
+ hacer acá y el último cierre que tenemos. Y luego voy a decirle
389
+
390
+ 00:10:01.670 --> 00:10:05.330
391
+ a los tweets de bajo engagement que son de bajo engagement, bajo
392
+
393
+ 00:10:05.330 --> 00:10:13.310
394
+ engagement. Y lo mismo, reemplazo las etiquetas de cierre, reemplazo las de apertura,
395
+
396
+ 00:10:13.310 --> 00:10:19.730
397
+ reemplazo las de cierre. Y nos queda solo una. Y lo último
398
+
399
+ 00:10:19.730 --> 00:10:24.470
400
+ que puedo hacer acá, ya que la etiqueta describe cuáles son los tweets
401
+
402
+ 00:10:24.470 --> 00:10:28.510
403
+ de alto y de bajo engagement, es mezclarlos. Entonces, va a pasar
404
+
405
+ 00:10:28.510 --> 00:10:33.270
406
+ este que tengo acá, lo voy a poner de segundo lugar. Entonces, tengo
407
+
408
+ 00:10:33.270 --> 00:10:38.010
409
+ alto engagement acá, alto engagement acá, lo paso de segundo lugar. Luego
410
+
411
+ 00:10:38.010 --> 00:10:43.350
412
+ tengo otro de bajo engagement por acá. Vamos a tomar este. Y lo
413
+
414
+ 00:10:43.350 --> 00:10:50.590
415
+ voy a pasar de... ¿Tercero? Tercero, cuarto lugar. Este prompt, así como
416
+
417
+ 00:10:50.590 --> 00:10:55.550
418
+ está, ya va a dar más claridad a la inteligencia artificial. Ahora, en
419
+
420
+ 00:10:55.550 --> 00:11:00.430
421
+ este momento, este prompt es mucho más claro para la inteligencia artificial,
422
+
423
+ 00:11:00.430 --> 00:11:03.170
424
+ pero ahora es un poco más difícil de entender para los humanos. Ya
425
+
426
+ 00:11:03.170 --> 00:11:06.890
427
+ vamos a ver cómo lo podemos mejorar, pero probémoslo. Nos vamos a
428
+
429
+ 00:11:06.890 --> 00:11:09.510
430
+ ir acá, nos vamos a ir al nuevo chat, lo voy a pegar
431
+
432
+ 00:11:09.510 --> 00:11:14.550
433
+ y al enviarlo veamos cuál es el tweet que nos genera. De
434
+
435
+ 00:11:14.550 --> 00:11:18.970
436
+ plano ya entendió que tiene que hacer tres opciones y me da un,
437
+
438
+ 00:11:18.970 --> 00:11:23.710
439
+ una opción uno que es: dato impactante e ironía, contraste generacional, más
440
+
441
+ 00:11:23.710 --> 00:11:28.190
442
+ números contra-- concretos y predicción controversial versus call to action. Y hasta ahora
443
+
444
+ 00:11:28.190 --> 00:11:32.090
445
+ ha mantenido el formato que nos dio en la primera iteración que
446
+
447
+ 00:11:32.090 --> 00:11:36.270
448
+ hicimos. Y lo que pasa acá es que aunque no veamos una mejora
449
+
450
+ 00:11:36.270 --> 00:11:40.410
451
+ incremental de un ejemplo a otro, lo que sí va a pasar
452
+
453
+ 00:11:40.410 --> 00:11:42.990
454
+ es que si empezamos a probarlo con más temas y más temas y
455
+
456
+ 00:11:42.990 --> 00:11:47.750
457
+ más temas, es más probable que la consistencia se mantenga, que sea
458
+
459
+ 00:11:47.750 --> 00:11:53.230
460
+ el mismo-- la misma calidad de resultado cada vez que lo intentemos. Perooo
461
+
462
+ 00:11:53.230 --> 00:11:57.410
463
+ volvamos al documento y tratemos ahora de darle un poquito más de,
464
+
465
+ 00:11:57.410 --> 00:12:01.850
466
+ de visual para que sea más fácil para los humanos entenderlo. Lo primero
467
+
468
+ 00:12:01.850 --> 00:12:06.750
469
+ que podemos hacer es que normalmente podríamos decir que esto estaba como
470
+
471
+ 00:12:06.750 --> 00:12:12.512
472
+ una lista y que estaba como con un espaciado que me daba la--Esa
473
+
474
+ 00:12:12.512 --> 00:12:16.942
475
+ pista visual de dónde estaba o iniciaba algo y terminaba algo. Eso
476
+
477
+ 00:12:16.942 --> 00:12:21.802
478
+ lo podemos hacer nosotros acá, donde incrementamos la indentación y de repente yo
479
+
480
+ 00:12:21.802 --> 00:12:26.742
481
+ puedo ver que ejemplos inicia acá y ejemplos termina acá de manera
482
+
483
+ 00:12:26.742 --> 00:12:32.752
484
+ visual. Y esto es algo importante. Nosotros pensemos-- pensamos en las etiquetas como
485
+
486
+ 00:12:32.752 --> 00:12:37.662
487
+ contenedores. Siempre que lo abro, debo cerrarlo. Y siempre que tengo ese
488
+
489
+ 00:12:37.662 --> 00:12:42.732
490
+ contenedor, puedo meter contenedores dentro. En este caso, tenemos el contenedor de tuit
491
+
492
+ 00:12:42.732 --> 00:12:49.822
493
+ de alto engagement que cierra dentro de ejemplos. Conforme vamos abriendo un
494
+
495
+ 00:12:49.822 --> 00:12:53.762
496
+ contenedor, tenemos que irlo cerrando. Es decir, yo no puedo llegar acá y
497
+
498
+ 00:12:53.762 --> 00:12:59.662
499
+ decir que este tuit de al-- de alto engagement no cierra, porque
500
+
501
+ 00:12:59.662 --> 00:13:03.532
502
+ acá va a quedar abierto y va a quedar ambiguo, que es lo
503
+
504
+ 00:13:03.532 --> 00:13:10.742
505
+ que queremos evitar. También yo podría decir que cierra acá. Y eso
506
+
507
+ 00:13:10.742 --> 00:13:13.802
508
+ no nos va a dar error, no estamos programando, entonces, na-- no hay
509
+
510
+ 00:13:13.802 --> 00:13:16.801
511
+ nada que valide que esto está bien o está mal. Pero lo
512
+
513
+ 00:13:16.801 --> 00:13:19.942
514
+ que sí va a pasar es que va a entender que todo el
515
+
516
+ 00:13:19.942 --> 00:13:26.282
517
+ contenido que está dentro de esto hace parte del tuit. Y eso
518
+
519
+ 00:13:26.282 --> 00:13:30.062
520
+ va a incrementar la probabilidad de que no detecte los patrones que queremos
521
+
522
+ 00:13:30.062 --> 00:13:36.112
523
+ detectar con los ejemplos o que empiece a alucinar la inteligencia artificial.
524
+
525
+ 00:13:36.112 --> 00:13:41.462
526
+ Entonces, es muy importante que seamos muy cuidadosos cada vez que abrimos una
527
+
528
+ 00:13:41.462 --> 00:13:45.062
529
+ etiqueta o un contenedor, que lo cerremos y que solo abarque la
530
+
531
+ 00:13:45.062 --> 00:13:49.562
532
+ información que realmente se atribuye a esa etiqueta. Acá lo otro que podemos
533
+
534
+ 00:13:49.562 --> 00:13:53.142
535
+ hacer es que podemos también incrementar la indentación para el tuit, y
536
+
537
+ 00:13:53.142 --> 00:13:56.342
538
+ acá podríamos estar viendo cada uno de los tuits de una manera más
539
+
540
+ 00:13:56.342 --> 00:14:01.582
541
+ sencilla. Y una cosa que también yo hago, que me gusta mucho
542
+
543
+ 00:14:01.582 --> 00:14:05.902
544
+ para poder hacer más fácil el entendimiento de esto para todas las personas
545
+
546
+ 00:14:05.902 --> 00:14:10.802
547
+ que colaboran dentro de los prompts que hacemos en Platzi, es que
548
+
549
+ 00:14:10.802 --> 00:14:15.342
550
+ podemos darle colores a las etiquetas. Ya tengo el prompt más visual, mucho
551
+
552
+ 00:14:15.342 --> 00:14:19.082
553
+ más amigable para, para mí entenderlo y para cualquier persona de mi
554
+
555
+ 00:14:19.082 --> 00:14:21.892
556
+ equipo. Y lo que quiero mostrarte es que en el momento en el
557
+
558
+ 00:14:21.892 --> 00:14:27.922
559
+ que yo lo pego acá en Claude, pues está exactamente igual a
560
+
561
+ 00:14:27.922 --> 00:14:32.442
562
+ cuando habíamos puesto las etiquetas. O sea, esos cambios visuales, pues al final
563
+
564
+ 00:14:32.442 --> 00:14:34.882
565
+ van a ser más para que yo pueda entender el prompt, lo
566
+
567
+ 00:14:34.882 --> 00:14:38.482
568
+ pueda editar, para que cualquier persona de mi equipo lo pueda editar y
569
+
570
+ 00:14:38.482 --> 00:14:41.082
571
+ no van a afectar en nada el momento en que yo vaya
572
+
573
+ 00:14:41.082 --> 00:14:44.242
574
+ a irme acá, lo vaya a ejecutar. Tal cual como lo habíamos visto
575
+
576
+ 00:14:44.242 --> 00:14:51.742
577
+ antes, se pegó y funcionó. Ahora, hay dos partes que quiero aclarar
578
+
579
+ 00:14:51.742 --> 00:14:56.232
580
+ acá. Uno, yo pude haber escrito todo el prompt dentro de esta caja,
581
+
582
+ 00:14:56.232 --> 00:14:59.242
583
+ pero si, por ejemplo, yo digo hola y quiero dar un salto
584
+
585
+ 00:14:59.242 --> 00:15:03.492
586
+ de línea y simplemente doy Enter, se va a mandar el mensaje directamente.
587
+
588
+ 00:15:03.492 --> 00:15:06.722
589
+ Si yo quisiera hacer ese salto de línea, debo decir hola y
590
+
591
+ 00:15:06.722 --> 00:15:11.382
592
+ poner Shift y Enter. Y ahí yo puedo hacer ese salto de línea.
593
+
594
+ 00:15:11.382 --> 00:15:16.502
595
+ Pero entonces, cuando yo tengo prompts muy largos y me equivoco y
596
+
597
+ 00:15:16.502 --> 00:15:20.282
598
+ a mitad del prompt se me olvida presionar el Shift y doy Enter,
599
+
600
+ 00:15:20.282 --> 00:15:22.502
601
+ se me va el prompt y puedo perder el trabajo que estaba
602
+
603
+ 00:15:22.502 --> 00:15:27.922
604
+ haciendo o tener que empezar un proceso más tedioso. Entonces, en general, cuando
605
+
606
+ 00:15:27.922 --> 00:15:32.282
607
+ tienes consultas muy pequeñas o prompts muy cortos, hacerlo directamente acá y
608
+
609
+ 00:15:32.282 --> 00:15:36.422
610
+ no tener las etiquetas XML no va a ser un problema. Todo esto
611
+
612
+ 00:15:36.422 --> 00:15:39.242
613
+ que aprendimos en esta clase es cuando empezamos a tener prompts más
614
+
615
+ 00:15:39.242 --> 00:15:44.502
616
+ estructurados. Ahí te recomiendo que empieces a escribir el prompt en un documento,
617
+
618
+ 00:15:44.502 --> 00:15:48.022
619
+ no en la herramienta, que tengas claridad del prompt. Incluso dile a
620
+
621
+ 00:15:48.022 --> 00:15:51.042
622
+ un amigo o un compañero que no tenga ninguna idea acerca de lo
623
+
624
+ 00:15:51.042 --> 00:15:54.442
625
+ que estás haciendo, que lo lea y que te diga qué entendió.
626
+
627
+ 00:15:54.442 --> 00:15:57.402
628
+ Y una vez ya sabes cuál es el prompt que quieres probar, lo
629
+
630
+ 00:15:57.402 --> 00:16:01.022
631
+ copies, lo pegues y te lo lleves acá. Y en esos casos,
632
+
633
+ 00:16:01.022 --> 00:16:04.682
634
+ cuando ya te fuiste a un documento, ya empieza a importar que esa
635
+
636
+ 00:16:04.682 --> 00:16:07.182
637
+ estructura visual te ayude a ti a no perder el hilo de
638
+
639
+ 00:16:07.182 --> 00:16:12.482
640
+ lo que estás escribiendo y luego poderlo llevar a tu LLM favorito.
641
+