2999a commited on
Commit
7eee601
·
verified ·
1 Parent(s): 678dfa8

Upload via hfc (batch)

Browse files

Uploaded using hfc tool

This view is limited to 50 files because it contains too many changes.   See raw diff
Files changed (50) hide show
  1. .gitattributes +3 -0
  2. prompt-engineering/1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.mp4 +3 -0
  3. prompt-engineering/1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.sub.vtt +77 -0
  4. prompt-engineering/10-Ventana de contexto y modelo de atención en LLMs.mp4 +3 -0
  5. prompt-engineering/10-Ventana de contexto y modelo de atención en LLMs.sub.vtt +389 -0
  6. prompt-engineering/11-Técnicas de grounding para consultas legales con LLMs.mp4 +3 -0
  7. prompt-engineering/11-Técnicas de grounding para consultas legales con LLMs.sub.vtt +575 -0
  8. prompt-engineering/12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.sub.vtt +233 -0
  9. prompt-engineering/14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.sub.vtt +389 -0
  10. prompt-engineering/15-Prompt chaining dividir tareas complejas en pasos independientes.sub.vtt +362 -0
  11. prompt-engineering/16-Creación de agentes personalizados con IA para empresas.sub.vtt +806 -0
  12. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Lecturas recomendadas.txt.metadata +8 -0
  13. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Qué son las bases de datos.mp4.metadata +8 -0
  14. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Qué son las bases de datos.vtt.metadata +8 -0
  15. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Resumen.html.metadata +8 -0
  16. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Cómo funciona el formato JPG.mp4.metadata +8 -0
  17. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Cómo funciona el formato JPG.vtt.metadata +8 -0
  18. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Lecturas recomendadas.txt.metadata +8 -0
  19. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Resumen.html.metadata +8 -0
  20. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/03-Resumen.html.metadata +8 -0
  21. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/03-Videos contenedores codecs y protocolos.mp4.metadata +8 -0
  22. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.mp4.lock +0 -0
  23. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.mp4.metadata +8 -0
  24. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.vtt.lock +0 -0
  25. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.vtt.metadata +8 -0
  26. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Resumen.html.lock +0 -0
  27. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Resumen.html.metadata +8 -0
  28. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.mp4.lock +0 -0
  29. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.mp4.metadata +8 -0
  30. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.vtt.lock +0 -0
  31. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.vtt.metadata +8 -0
  32. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Lecturas recomendadas.txt.lock +0 -0
  33. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Lecturas recomendadas.txt.metadata +8 -0
  34. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Resumen.html.lock +0 -0
  35. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Resumen.html.metadata +8 -0
  36. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Lecturas recomendadas.txt.lock +0 -0
  37. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Lecturas recomendadas.txt.metadata +8 -0
  38. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.mp4.lock +0 -0
  39. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.mp4.metadata +8 -0
  40. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.vtt.lock +0 -0
  41. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.vtt.metadata +8 -0
  42. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Resumen.html.lock +0 -0
  43. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Resumen.html.metadata +8 -0
  44. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.mp4.lock +0 -0
  45. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.mp4.metadata +8 -0
  46. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.vtt.lock +0 -0
  47. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.vtt.metadata +8 -0
  48. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Resumen.html.lock +0 -0
  49. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Resumen.html.metadata +8 -0
  50. subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/presentation.mhtml.lock +0 -0
.gitattributes CHANGED
@@ -290,3 +290,6 @@ subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:
290
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/08-Colisiones[[:space:]]y[[:space:]]Portadas[[:space:]]en[[:space:]]Videojuegos[[:space:]]Implementación[[:space:]]en[[:space:]]C.mp4 filter=lfs diff=lfs merge=lfs -text
291
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/09-Creación[[:space:]]de[[:space:]]Juegos[[:space:]]de[[:space:]]Aventuras[[:space:]]en[[:space:]]C[[:space:]]Laberintos[[:space:]]y[[:space:]]Cofres[[:space:]]del[[:space:]]Tesoro.mp4 filter=lfs diff=lfs merge=lfs -text
292
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/10-Programación[[:space:]]Orientada[[:space:]]a[[:space:]]Objetos[[:space:]]en[[:space:]]Videojuegos[[:space:]]Básicos.mp4 filter=lfs diff=lfs merge=lfs -text
 
 
 
 
290
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/08-Colisiones[[:space:]]y[[:space:]]Portadas[[:space:]]en[[:space:]]Videojuegos[[:space:]]Implementación[[:space:]]en[[:space:]]C.mp4 filter=lfs diff=lfs merge=lfs -text
291
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/09-Creación[[:space:]]de[[:space:]]Juegos[[:space:]]de[[:space:]]Aventuras[[:space:]]en[[:space:]]C[[:space:]]Laberintos[[:space:]]y[[:space:]]Cofres[[:space:]]del[[:space:]]Tesoro.mp4 filter=lfs diff=lfs merge=lfs -text
292
  subir/Curso[[:space:]]Práctico[[:space:]]de[[:space:]]C/09-Finalizando[[:space:]]nuestro[[:space:]]proyecto/10-Programación[[:space:]]Orientada[[:space:]]a[[:space:]]Objetos[[:space:]]en[[:space:]]Videojuegos[[:space:]]Básicos.mp4 filter=lfs diff=lfs merge=lfs -text
293
+ prompt-engineering/10-Ventana[[:space:]]de[[:space:]]contexto[[:space:]]y[[:space:]]modelo[[:space:]]de[[:space:]]atención[[:space:]]en[[:space:]]LLMs.mp4 filter=lfs diff=lfs merge=lfs -text
294
+ prompt-engineering/1-Cómo[[:space:]]estructurar[[:space:]]prompts[[:space:]]efectivos[[:space:]]con[[:space:]]rol,[[:space:]]enfoque,[[:space:]]límites[[:space:]]y[[:space:]]contexto.mp4 filter=lfs diff=lfs merge=lfs -text
295
+ prompt-engineering/11-Técnicas[[:space:]]de[[:space:]]grounding[[:space:]]para[[:space:]]consultas[[:space:]]legales[[:space:]]con[[:space:]]LLMs.mp4 filter=lfs diff=lfs merge=lfs -text
prompt-engineering/1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:21b9513d8021d1a4f81f486bc96754a8be0f6d3f14b2b70f9d841bef18b5c10f
3
+ size 62102000
prompt-engineering/1-Cómo estructurar prompts efectivos con rol, enfoque, límites y contexto.sub.vtt ADDED
@@ -0,0 +1,77 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.379 --> 00:00:03.659
4
+ Si la inteligencia artificial no te entiende, es porque no te estás logrando
5
+
6
+ 00:00:03.659 --> 00:00:07.639
7
+ comunicar bien. Abre ChatGPT, mira el último mensaje que enviaste y lo
8
+
9
+ 00:00:07.639 --> 00:00:12.979
10
+ vas a reescribir en la siguiente estructura: rol, enfoque, memoria y límites. Aquí
11
+
12
+ 00:00:12.979 --> 00:00:16.500
13
+ te va un ejemplo: «Actúa como especialista en marketing en B2B». Ese
14
+
15
+ 00:00:16.500 --> 00:00:20.099
16
+ es el rol. «Vas a crear una publicación en LinkedIn acerca de mi
17
+
18
+ 00:00:20.100 --> 00:00:24.099
19
+ producto». Ese es el enfoque. «La publicación no puede tener más de
20
+
21
+ 00:00:24.100 --> 00:00:28.760
22
+ ciento cincuenta caracteres y debe usar un lenguaje simple, concreto y coloquial». Esos
23
+
24
+ 00:00:28.760 --> 00:00:32.360
25
+ son los límites. Y, por último, tenemos el contexto, donde le voy
26
+
27
+ 00:00:32.360 --> 00:00:35.540
28
+ a explicar de qué trata mi producto. «Mi producto es un software as
29
+
30
+ 00:00:35.540 --> 00:00:38.840
31
+ a service que automatiza el proceso contable de tu empresa». Un poco
32
+
33
+ 00:00:38.840 --> 00:00:42.819
34
+ más complejo y difícil de pensar, y seguramente que lo último que le
35
+
36
+ 00:00:42.819 --> 00:00:47.360
37
+ dijiste a ChatGPT no tenía toda esa información. Complémntala. Con esto pasarás
38
+
39
+ 00:00:47.360 --> 00:00:52.040
40
+ de resultados genéricos a respuestas acertadas y completas. Al terminar el curso, podrás
41
+
42
+ 00:00:52.040 --> 00:00:56.819
43
+ pasar de procesos a instrucciones claras que las entienda cualquier persona, pero
44
+
45
+ 00:00:56.819 --> 00:01:00.399
46
+ más importante, que lo entienda un LLM. Sabrás elegir el modelo y el
47
+
48
+ 00:01:00.399 --> 00:01:04.998
49
+ enfoque correcto dependiendo de la tarea que quieres solucionar. Podrás descomponer problemas
50
+
51
+ 00:01:05.000 --> 00:01:08.659
52
+ complejos en cosas más pequeñas y definir cuál es el prompt o la
53
+
54
+ 00:01:08.659 --> 00:01:12.419
55
+ técnica de prompting correcta para poder llegar al resultado que esperas. Podrás
56
+
57
+ 00:01:12.419 --> 00:01:18.279
58
+ calibrar entre creatividad y precisión, sabiendo si estás dando demasiada información al modelo
59
+
60
+ 00:01:18.279 --> 00:01:21.859
61
+ o si tienes la información necesaria para llegar al resultado que esperas
62
+
63
+ 00:01:21.860 --> 00:01:26.739
64
+ sin tener ninguna alucinación. Este curso no es de código. Aprenderás los fundamentos
65
+
66
+ 00:01:26.739 --> 00:01:29.279
67
+ de crear un buen prompt. Y la verdad es que la inteligencia
68
+
69
+ 00:01:29.279 --> 00:01:34.479
70
+ artificial cambia cada semana, pero con estos fundamentos aprenderás a navegar todos esos
71
+
72
+ 00:01:34.479 --> 00:01:37.979
73
+ cambios. Yo soy Juan Pablo Rojas, chief product officer de Platzi, y
74
+
75
+ 00:01:37.979 --> 00:01:40.220
76
+ te veo en la siguiente clase.
77
+
prompt-engineering/10-Ventana de contexto y modelo de atención en LLMs.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4edb88139aa7130fd29d571bbd66eeb505a92460b4ddcbcb38e75146f45baba4
3
+ size 330081450
prompt-engineering/10-Ventana de contexto y modelo de atención en LLMs.sub.vtt ADDED
@@ -0,0 +1,389 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.040 --> 00:00:04.160
4
+ Estás leyendo un informe de cincuenta páginas acerca del performance de la empresa
5
+
6
+ 00:00:04.160 --> 00:00:08.600
7
+ de los últimos dos años y ya vas por la página cuarenta,
8
+
9
+ 00:00:08.600 --> 00:00:12.800
10
+ pero te cuesta recordar cuáles fueron las decisiones que se tomaron en enero
11
+
12
+ 00:00:12.800 --> 00:00:16.700
13
+ de 2024. Era la información que estaba al inicio del reporte, la
14
+
15
+ 00:00:16.700 --> 00:00:21.400
16
+ leíste, la entendiste, pero es que ya vas en la página cuarenta. Este,
17
+
18
+ 00:00:21.400 --> 00:00:23.800
19
+ este problema que nos pasa a nosotros también le pasa a la
20
+
21
+ 00:00:23.800 --> 00:00:27.840
22
+ inteligencia artificial cuando está teniendo que lidiar con contextos muy largos, con mucha
23
+
24
+ 00:00:27.840 --> 00:00:31.560
25
+ información. Y ese problema está relacionado a un concepto llamado la ventana
26
+
27
+ 00:00:31.560 --> 00:00:35.460
28
+ de contexto. La ventana de contexto en un LLM determina cuál es la
29
+
30
+ 00:00:35.460 --> 00:00:40.300
31
+ cantidad de información que tiene capacidad de procesar y esto está acompañado
32
+
33
+ 00:00:40.300 --> 00:00:43.280
34
+ con algo que ya hemos mencionado en clases pasadas, pero quiero explicar más
35
+
36
+ 00:00:43.280 --> 00:00:47.140
37
+ a detalle, que es el modelo de atención. Entonces, recordemos, hablábamos de
38
+
39
+ 00:00:47.140 --> 00:00:52.010
40
+ que la diferencia entre el teclado predictivo de WhatsApp y un LLM es
41
+
42
+ 00:00:52.010 --> 00:00:54.480
43
+ que el teclado predictivo de WhatsApp solo va a buscar cuál es
44
+
45
+ 00:00:54.480 --> 00:00:58.080
46
+ la palabra más probable que sigue después de que tú pongas «Hola», y
47
+
48
+ 00:00:58.080 --> 00:01:00.760
49
+ no va a tener en cuenta ni la conversación que estás teniendo
50
+
51
+ 00:01:00.760 --> 00:01:03.620
52
+ ni la intención del mensaje que vas a escribir. Es por eso que
53
+
54
+ 00:01:03.620 --> 00:01:06.700
55
+ ese teclado predictivo no es capaz de escribir un mensaje completo o
56
+
57
+ 00:01:06.700 --> 00:01:11.400
58
+ redactar un email. Pero un LLM sí tiene esa capacidad gracias al modelo
59
+
60
+ 00:01:11.400 --> 00:01:14.220
61
+ de atención. Y el modelo de atención lo que hace es que
62
+
63
+ 00:01:14.220 --> 00:01:17.260
64
+ le va a dar importancia a diferentes palabras que vaya a encontrar dentro
65
+
66
+ 00:01:17.260 --> 00:01:20.500
67
+ del prompt para poder entender cuál es la intención y el significado
68
+
69
+ 00:01:20.500 --> 00:01:24.330
70
+ de lo que quieres decir. Eso quiere decir que esta ventana de contexto
71
+
72
+ 00:01:24.330 --> 00:01:28.940
73
+ importa muchísimo, porque el prompt, cuando iniciamos un nuevo chat, es el
74
+
75
+ 00:01:28.940 --> 00:01:33.960
76
+ mensaje que nosotros vamos a enviar. Lo enviamos, el LLM nos responde y
77
+
78
+ 00:01:33.960 --> 00:01:37.660
79
+ luego queremos enviar un nuevo mensaje. Uno pensaría que el nuevo mensaje
80
+
81
+ 00:01:37.660 --> 00:01:42.640
82
+ es un prompt individual, pero no. Toda la conversación que estamos teniendo con
83
+
84
+ 00:01:42.640 --> 00:01:46.580
85
+ el LLM es parte del prompt, y eso es la ventana de
86
+
87
+ 00:01:46.580 --> 00:01:50.500
88
+ contexto. Es toda la información que estamos pidiéndole procesar y que solamente va
89
+
90
+ 00:01:50.500 --> 00:01:54.960
91
+ aumentando conforme vamos incrementando la longitud del chat. Y esa no es
92
+
93
+ 00:01:54.960 --> 00:01:58.300
94
+ la única forma de aumentar la ventana de contexto. Cada vez que nosotros
95
+
96
+ 00:01:58.300 --> 00:02:01.100
97
+ subimos un archivo, como lo hicimos en las primeras clases con el
98
+
99
+ 00:02:01.100 --> 00:02:05.780
100
+ reporte de McKinsey, eso también entra dentro de la ventana de contexto. Esto
101
+
102
+ 00:02:05.780 --> 00:02:09.459
103
+ quiere decir que es muy fácil que la ventana de contexto crezca
104
+
105
+ 00:02:09.520 --> 00:02:13.040
106
+ por continuar un chat hasta que ya no dé más y no te
107
+
108
+ 00:02:13.040 --> 00:02:17.140
109
+ responda más, o por subir muchos documentos, con muchas páginas, con mucha
110
+
111
+ 00:02:17.140 --> 00:02:22.520
112
+ información que debe ser procesada para resolver o responder el siguiente mensaje que
113
+
114
+ 00:02:22.520 --> 00:02:26.180
115
+ le acabas de enviar al LLM. Esta ventana de contexto se mide
116
+
117
+ 00:02:26.180 --> 00:02:31.340
118
+ por algo llamado tokens. Y los tokens son una interpretación del LLM de
119
+
120
+ 00:02:31.340 --> 00:02:35.700
121
+ las palabras o de la-- del prompt completo que nosotros estamos enviando.
122
+
123
+ 00:02:35.700 --> 00:02:39.240
124
+ Y digo interpretación porque no es como que el LLM va a cortar
125
+
126
+ 00:02:39.240 --> 00:02:41.980
127
+ exactamente en todos los espacios y va a decir: «Ah, pues este
128
+
129
+ 00:02:41.980 --> 00:02:46.100
130
+ prompt tiene diez palabras, entonces son diez tokens». La verdad es que no.
131
+
132
+ 00:02:46.100 --> 00:02:50.350
133
+ Funciona más como un cocinero que sabe exactamente con cada ingrediente cómo
134
+
135
+ 00:02:50.350 --> 00:02:53.620
136
+ cortarlo y dónde cortarlo y de qué manera cortarlo para poder preparar una
137
+
138
+ 00:02:53.620 --> 00:02:57.720
139
+ receta. En este caso, un LLM en su entrenamiento agarra todas las
140
+
141
+ 00:02:57.720 --> 00:03:01.640
142
+ sutilezas de los diferentes lenguajes con los, con los que es entrenado para
143
+
144
+ 00:03:01.640 --> 00:03:04.940
145
+ decidir dónde hacer los cortes, con tal de agarrar las sutilezas que
146
+
147
+ 00:03:04.940 --> 00:03:09.040
148
+ importan. Por ejemplo, en español tenemos el signo de interrogación de apertura y
149
+
150
+ 00:03:09.040 --> 00:03:12.740
151
+ el signo de interrogación de cierre, cosa que en inglés solo existe
152
+
153
+ 00:03:12.740 --> 00:03:16.880
154
+ el signo de interrogación de cierre. En español, esto nos permite saber dónde
155
+
156
+ 00:03:16.880 --> 00:03:20.080
157
+ inicia la pregunta y dónde termina, y esto lo va a tomar
158
+
159
+ 00:03:20.080 --> 00:03:23.880
160
+ como un token. Con esta explicación lo que debes saber es que las
161
+
162
+ 00:03:23.880 --> 00:03:28.240
163
+ ventanas de contexto tienen un límite de tokens. Por ejemplo, ChatGPT tiene
164
+
165
+ 00:03:28.240 --> 00:03:33.020
166
+ una ventana de contexto de ciento veintiocho mil tokens, que aproximadamente tienden a
167
+
168
+ 00:03:33.020 --> 00:03:37.079
169
+ ser trescientas páginas de un libro. Y esto no quiere decir que
170
+
171
+ 00:03:37.080 --> 00:03:41.340
172
+ no puedas subir un libro de quinientas páginas a ChatGPT e interactuar con
173
+
174
+ 00:03:41.340 --> 00:03:45.140
175
+ él, sino que esto nos enfrenta a un problema llamado en inteligencia
176
+
177
+ 00:03:45.140 --> 00:03:49.100
178
+ artificial la aguja en un pajarro. Es decir, tiene mucha información y tiene
179
+
180
+ 00:03:49.100 --> 00:03:53.359
181
+ que usar otros métodos para obtener esa información y encontrar justo el
182
+
183
+ 00:03:53.360 --> 00:03:56.560
184
+ dato que nos importa de la pregunta que estamos haciendo. Esto va a
185
+
186
+ 00:03:56.560 --> 00:04:01.800
187
+ incrementar la probabilidad de que hayan alucinaciones o que la inteligencia artificial
188
+
189
+ 00:04:01.800 --> 00:04:06.500
190
+ olvide o pierda la atención de ciertos detalles que sí le estamos diciendo,
191
+
192
+ 00:04:06.500 --> 00:04:10.520
193
+ pero que simplemente por la cantidad de información no está logrando capturar.
194
+
195
+ 00:04:10.520 --> 00:04:13.460
196
+ En la siguiente clase vamos a hacer un ejercicio con Gemini. ¿Por qué
197
+
198
+ 00:04:13.460 --> 00:04:16.940
199
+ escogimos Gemini? Porque Gemini es el que tiene la ventana de contexto
200
+
201
+ 00:04:16.940 --> 00:04:20.480
202
+ más grande en este momento. Estamos hablando de un millón de tokens, que
203
+
204
+ 00:04:20.480 --> 00:04:25.760
205
+ son más de ciento veinte mil páginas. Eso aliviana el problema porque
206
+
207
+ 00:04:25.760 --> 00:04:29.740
208
+ va a poder indexar un libro de trescientas páginas sin ningún problema y
209
+
210
+ 00:04:29.740 --> 00:04:34.320
211
+ poder agregar cualquier prompt y cualquier conversación, porque nuestra ventana de contexto
212
+
213
+ 00:04:34.320 --> 00:04:38.440
214
+ es mucho más amplia que eso. Pero acá hay un truco. Todos los
215
+
216
+ 00:04:38.440 --> 00:04:42.500
217
+ modelos grandes de lenguaje que tienen una ventana de contexto tan grande,
218
+
219
+ 00:04:42.500 --> 00:04:46.960
220
+ son capaces de analizar toda esa información, pero entran en un nuevo problema,
221
+
222
+ 00:04:46.960 --> 00:04:50.220
223
+ y es que conforme va aumentando la ventana de contexto después de
224
+
225
+ 00:04:50.220 --> 00:04:54.920
226
+ ciento veintiocho mil tokens, la eficiencia del modelo empieza a degradarse. ¿Esto qué
227
+
228
+ 00:04:54.920 --> 00:04:58.500
229
+ quiere decir? Que seguimos teniendo el problema en donde es capaz de
230
+
231
+ 00:04:58.500 --> 00:05:02.900
232
+ olvidar o alucinar información acerca del documento que vamos a analizar. Además de
233
+
234
+ 00:05:02.900 --> 00:05:06.120
235
+ alucinar u olvidar información, lo que puede empezar a pasar también es
236
+
237
+ 00:05:06.120 --> 00:05:09.740
238
+ que se confunda entre las tareas que le estás dando. Entonces, tú puedes
239
+
240
+ 00:05:09.740 --> 00:05:13.360
241
+ coger un mismo chat de, de ChatGPT, de Gemini o de Claude
242
+
243
+ 00:05:13.360 --> 00:05:18.120
244
+ y puedes pedirle que actúe diferentes roles, puedes seguir combinando tareas dentro del
245
+
246
+ 00:05:18.120 --> 00:05:21.380
247
+ mismo chat, pero hay una probabilidad de que el modelo de atención
248
+
249
+ 00:05:21.380 --> 00:05:25.560
250
+ empiece a confundirse. Primero le dijiste que actuara como un researcher e hiciera
251
+
252
+ 00:05:25.560 --> 00:05:29.860
253
+ una investigación sobre el calentamiento global, y luego le dijiste que hiciera
254
+
255
+ 00:05:29.860 --> 00:05:34.100
256
+ el labor de un social media manager para hacer contenido en redes sociales.
257
+
258
+ 00:05:34.100 --> 00:05:37.039
259
+ Es probable que en ese cambio de rol y que la ventana
260
+
261
+ 00:05:37.040 --> 00:05:41.700
262
+ de contexto por ir incrementando, empiece a equivocarse y no haga tan bien
263
+
264
+ 00:05:41.700 --> 00:05:46.440
265
+ el trabajo como social media manager, porque sigue pensando que debe actuar
266
+
267
+ 00:05:46.440 --> 00:05:50.720
268
+ como researcher que está investigando sobre el cambio climático. O de plano, el
269
+
270
+ 00:05:50.720 --> 00:05:54.360
271
+ tercer error que podemos identificar es que empieza a olvidar las instrucciones.
272
+
273
+ 00:05:54.360 --> 00:05:58.380
274
+ Es decir, le dijimos que me diera resúmenes de quinientas palabras que fueran
275
+
276
+ 00:05:58.380 --> 00:06:02.420
277
+ pragmáticos, concisos, que fueran accionables, y de repente se vuelve a poner
278
+
279
+ 00:06:02.420 --> 00:06:07.480
280
+ poético, se vuelve a poner a decirme cosas larguísimas y pareciera que se
281
+
282
+ 00:06:07.480 --> 00:06:11.452
283
+ le están olvidando las cosas.[Clics]. Hay formas de mitigar esto. Lo
284
+
285
+ 00:06:11.452 --> 00:06:14.952
286
+ primero es que el modelo siempre va a dar más atención a lo
287
+
288
+ 00:06:14.952 --> 00:06:18.572
289
+ último que está en el prompt. Entonces, si se está alargando mucho
290
+
291
+ 00:06:18.572 --> 00:06:22.872
292
+ tu chat dentro de ChatGPT, Gemini o Claude, es importante que le recuerdes
293
+
294
+ 00:06:22.872 --> 00:06:26.532
295
+ los factores importantes que quieres que tenga en cuenta para resolver la
296
+
297
+ 00:06:26.532 --> 00:06:30.072
298
+ tarea que le vas a poner ahora. Esto lo que hace es poner
299
+
300
+ 00:06:30.072 --> 00:06:33.052
301
+ esa información de últimas en la ventana de contexto y, por ende,
302
+
303
+ 00:06:33.052 --> 00:06:36.872
304
+ el modelo de atención le va a dar más prioridad. Lo segundo es
305
+
306
+ 00:06:36.872 --> 00:06:41.132
307
+ que si significa algo en, en nuestro idioma, significa algo para el
308
+
309
+ 00:06:41.132 --> 00:06:46.572
310
+ LLM. Entonces, el uso de mayúsculas, el repetir la información múltiples veces, el
311
+
312
+ 00:06:46.572 --> 00:06:49.832
313
+ uso de signos de exclamación, también van a optimizar el modelo de
314
+
315
+ 00:06:49.832 --> 00:06:54.532
316
+ atención para que tenga más cuidado con las instrucciones que le estamos repitiendo
317
+
318
+ 00:06:54.532 --> 00:06:58.372
319
+ o que estamos usando este tipo de técnicas que significan algo en
320
+
321
+ 00:06:58.372 --> 00:07:03.912
322
+ nuestro lenguaje y van a significar algo para el LLM. Y por último,
323
+
324
+ 00:07:03.912 --> 00:07:08.052
325
+ es que hagas preguntas o identifiques contradicciones. Si le pediste que te
326
+
327
+ 00:07:08.052 --> 00:07:11.892
328
+ diera un reporte, volviendo al reporte de los últimos dos años de la
329
+
330
+ 00:07:11.892 --> 00:07:15.852
331
+ empresa, por cada departamento y solo te habla de tres departamentos, eso
332
+
333
+ 00:07:15.852 --> 00:07:19.592
334
+ ya es una señal de que no está logrando controlar la ventana de
335
+
336
+ 00:07:19.592 --> 00:07:23.472
337
+ contexto y está empezando a olvidar o alucinar información. Y ahí lo
338
+
339
+ 00:07:23.472 --> 00:07:26.312
340
+ que te recomiendo es que la información que te haya servido hasta ese
341
+
342
+ 00:07:26.312 --> 00:07:29.432
343
+ punto del chat, la agarres, te la lleves a un nuevo chat
344
+
345
+ 00:07:29.432 --> 00:07:32.472
346
+ y empieces una nueva tarea en una ventana de contexto limpia con la
347
+
348
+ 00:07:32.472 --> 00:07:37.792
349
+ información que importa. Lo más importante de todo esto es que la
350
+
351
+ 00:07:37.792 --> 00:07:41.852
352
+ información que ingresas tiene que ser la necesaria para resolver el problema. Si
353
+
354
+ 00:07:41.852 --> 00:07:44.992
355
+ ingresas información de más, vas a caer en el problema de la
356
+
357
+ 00:07:44.992 --> 00:07:49.552
358
+ aguja en el pajar, y puede que la inteligencia artificial, el LLM, empiece
359
+
360
+ 00:07:49.552 --> 00:07:53.092
361
+ a alucinar y se pierda entre todo el contexto. Imagínate esta ventana
362
+
363
+ 00:07:53.092 --> 00:07:57.122
364
+ de contexto como un escritorio, y los tokens como la cantidad de páginas
365
+
366
+ 00:07:57.122 --> 00:08:01.392
367
+ que puedes tener visibles en el escritorio. Si solo puedes poner diez
368
+
369
+ 00:08:01.392 --> 00:08:05.062
370
+ y tienes veinte, chances hay de que se pierda la información. Porque, ¿cómo
371
+
372
+ 00:08:05.062 --> 00:08:08.722
373
+ priorizas cuáles son las diez que vas a poder ver? Lo importante
374
+
375
+ 00:08:08.722 --> 00:08:13.992
376
+ es identificar la información correcta, optimizar la m-venta ventana de contexto al máximo
377
+
378
+ 00:08:13.992 --> 00:08:17.452
379
+ y, desde ahí, poder tener mecanismos con los que identifiques en qué
380
+
381
+ 00:08:17.452 --> 00:08:20.672
382
+ momento empezó a alucinar u olvidar la información para que puedas empezar un
383
+
384
+ 00:08:20.672 --> 00:08:24.452
385
+ nuevo chat, reorganices tu mesa con las hojas y pongas la información
386
+
387
+ 00:08:24.452 --> 00:08:26.491
388
+ que importa para la tarea que quieres solucionar.
389
+
prompt-engineering/11-Técnicas de grounding para consultas legales con LLMs.mp4 ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:acb34aa16ab70d82694c0b971c19b025ef040af6d5ff98eb5bfb9909c6c11521
3
+ size 436050296
prompt-engineering/11-Técnicas de grounding para consultas legales con LLMs.sub.vtt ADDED
@@ -0,0 +1,575 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.400 --> 00:00:04.090
4
+ Imagina que eres un product manager en una institución financiera en México. Es
5
+
6
+ 00:00:04.090 --> 00:00:07.060
7
+ una institución, digamos, un banco, y tienes la tarea de que vas
8
+
9
+ 00:00:07.060 --> 00:00:09.880
10
+ a crear un nuevo canal para atención de usuarios, que es una aplicación
11
+
12
+ 00:00:09.880 --> 00:00:14.460
13
+ móvil. Para poder proponer esto y que sea viable y te den
14
+
15
+ 00:00:14.460 --> 00:00:17.740
16
+ la aprobación, tienes que hacer un business case, tienes que hacer una propuesta
17
+
18
+ 00:00:17.740 --> 00:00:20.380
19
+ en donde consideres todas las cosas que tienes que tener en cuenta
20
+
21
+ 00:00:20.380 --> 00:00:24.220
22
+ para construirla. Y una de las cosas que va a ser más difícil
23
+
24
+ 00:00:24.220 --> 00:00:28.000
25
+ es entender la ley y la regulación que te aplica, y aunque
26
+
27
+ 00:00:28.000 --> 00:00:32.180
28
+ tienes un equipo legal, pues este es un trabajo que, en específico, tú
29
+
30
+ 00:00:32.180 --> 00:00:35.740
31
+ como product manager deberías un poco dominar esta ley para llegar con
32
+
33
+ 00:00:35.740 --> 00:00:39.540
34
+ propuestas más maduras y que el equipo legal no esté tanto gastándose el
35
+
36
+ 00:00:39.540 --> 00:00:45.080
37
+ tiempo en explicarte toda la ley financiera o de instituciones crediticias, sino
38
+
39
+ 00:00:45.080 --> 00:00:49.820
40
+ que se gaste más ese tiempo en discutir cómo hacer posible la idea.
41
+
42
+ 00:00:49.820 --> 00:00:54.760
43
+ Antes, lo que tenías que hacer para llegar ahí es convertirte en
44
+
45
+ 00:00:54.760 --> 00:00:59.360
46
+ un abogado, ser un experto en la ley, e incluso caías en el
47
+
48
+ 00:00:59.360 --> 00:01:03.060
49
+ problema de que mucho del vocabulario que se usa no necesariamente lo
50
+
51
+ 00:01:03.060 --> 00:01:06.780
52
+ vas a entender o te va a costar entender-- a entenderlo o vas
53
+
54
+ 00:01:06.780 --> 00:01:09.920
55
+ a interpretarlo mal. Pero justo esta es una de esas tareas en
56
+
57
+ 00:01:09.920 --> 00:01:13.690
58
+ donde podemos utilizar un LLM y es una de esas tareas donde vamos
59
+
60
+ 00:01:13.690 --> 00:01:17.679
61
+ a empezar a ver varias técnicas para solucionar el problema de la
62
+
63
+ 00:01:17.680 --> 00:01:22.300
64
+ aguja en un pajar, para que nos aseguremos que la inteligencia artificial no
65
+
66
+ 00:01:22.300 --> 00:01:27.320
67
+ va a alucinar, olvidar e inventar información, sino que de verdad nos
68
+
69
+ 00:01:27.320 --> 00:01:31.700
70
+ sirva para la tarea que queremos cumplir. Y espera, la función acá no
71
+
72
+ 00:01:31.700 --> 00:01:35.000
73
+ es reemplazar a un abogado. La función acá es poder avanzar más
74
+
75
+ 00:01:35.000 --> 00:01:38.200
76
+ en el trabajo para usar el tiempo de los abogados de la empresa
77
+
78
+ 00:01:38.200 --> 00:01:42.320
79
+ en lo que realmente va a traer mayor impacto. Entonces, vamos a
80
+
81
+ 00:01:42.320 --> 00:01:46.500
82
+ irnos a Gemini, que es el LLM con la mayor ventana de contexto
83
+
84
+ 00:01:46.500 --> 00:01:49.620
85
+ de un millón de tokens, y vamos a empezar a ver diferentes
86
+
87
+ 00:01:49.620 --> 00:01:53.880
88
+ técnicas que nos van a ayudar a asegurarnos que no tengamos el problema
89
+
90
+ 00:01:53.880 --> 00:01:59.660
91
+ de alucinaciones, de olvidar o que termine inventando cosas la inteligencia artificial.
92
+
93
+ 00:01:59.660 --> 00:02:03.600
94
+ Y esa primera técnica se va a llamar grounding. Entonces, vamos a irnos
95
+
96
+ 00:02:03.600 --> 00:02:06.140
97
+ a Gemini y vamos a subir uno de los archivos que te
98
+
99
+ 00:02:06.140 --> 00:02:09.258
100
+ dejé en los recursos. El primer archivo que vamos a abrir se llama
101
+
102
+ 00:02:09.258 --> 00:02:14.460
103
+ LIC.pdf, que es la ley de instituciones de crédito. En este caso,
104
+
105
+ 00:02:14.460 --> 00:02:18.420
106
+ esta es la ley de México para banca múltiple y lo que queremos
107
+
108
+ 00:02:18.420 --> 00:02:22.260
109
+ hacer es poderla consultar. Y para eso vamos a usar el siguiente
110
+
111
+ 00:02:22.260 --> 00:02:26.740
112
+ prompt, que tengo acá. Y es: «Eres un asistente legal especializado en la
113
+
114
+ 00:02:26.740 --> 00:02:32.329
115
+ regulación bancaria mexicana. Basa tu respuesta únicamente en mayúsculas en el documento
116
+
117
+ 00:02:32.329 --> 00:02:35.880
118
+ adjunto de la Ley de Instituciones de Crédito. Si la información no está
119
+
120
+ 00:02:35.880 --> 00:02:39.200
121
+ en el documento, responde que no se encuentra disponible». Y acá vemos
122
+
123
+ 00:02:39.200 --> 00:02:42.580
124
+ dos cosas que nos ayudan a este grounding. Lo primero es que le
125
+
126
+ 00:02:42.580 --> 00:02:47.519
127
+ aclaramos que la respuesta debe ser basada únicamente en el documento adjunto
128
+
129
+ 00:02:47.520 --> 00:02:52.520
130
+ y especificamos el nombre del documento. Podríamos decir documentos adjuntos y ya está,
131
+
132
+ 00:02:52.520 --> 00:02:56.480
133
+ pero especificar el nombre del documento hace que se enfoque específicamente y
134
+
135
+ 00:02:56.480 --> 00:03:00.769
136
+ no haya chance de que lo interprete por otro lugar. Únicamente lo ponemos
137
+
138
+ 00:03:00.769 --> 00:03:05.040
139
+ en mayúscula porque significa algo en nuestro lenguaje. Cuando alguien nos habla
140
+
141
+ 00:03:05.040 --> 00:03:09.079
142
+ en mayúscula, quiere decir que nos está haciendo énfasis en algo. Incluso hacemos
143
+
144
+ 00:03:09.080 --> 00:03:13.220
145
+ el chiste de que está gritando. Acá estamos haciendo eso, darle énfasis
146
+
147
+ 00:03:13.220 --> 00:03:17.200
148
+ en que únicamente en el documento adjunto. Y lo otro que hacemos es
149
+
150
+ 00:03:17.200 --> 00:03:20.460
151
+ que le damos una instrucción de qué debe hacer si no encuentra
152
+
153
+ 00:03:20.460 --> 00:03:23.720
154
+ información. Y acá lo más importante a tener en cuenta es que la
155
+
156
+ 00:03:23.720 --> 00:03:28.140
157
+ inteligencia artificial va a encontrar patrones, incluso en lugares donde no los
158
+
159
+ 00:03:28.140 --> 00:03:32.700
160
+ hay. La tarea de la inteligencia artificial es responderte sí o sí. Y
161
+
162
+ 00:03:32.700 --> 00:03:36.579
163
+ si lo que implica es inventar información, lo va a hacer. Entonces,
164
+
165
+ 00:03:36.580 --> 00:03:39.960
166
+ lo que estamos haciendo es ser explícitos en qué-- en qué debe hacer
167
+
168
+ 00:03:39.960 --> 00:03:42.700
169
+ en el momento en el que no encuentre información con la cual
170
+
171
+ 00:03:42.700 --> 00:03:46.400
172
+ responder. En lugar de inventar, mejor que nos dé una respuesta en donde
173
+
174
+ 00:03:46.400 --> 00:03:51.080
175
+ nos diga que no se encuentra esa información. Al enviar este prompt,
176
+
177
+ 00:03:51.080 --> 00:03:55.920
178
+ lo primero que estamos haciendo es darle un rol y dan-darle un enfoque
179
+
180
+ 00:03:55.920 --> 00:03:59.880
181
+ a lo que queremos que pase dentro de-de esta ventana de contexto.
182
+
183
+ 00:03:59.880 --> 00:04:03.240
184
+ Y listo. Acá me dice: «Ya procesé el documento y estoy lista para
185
+
186
+ 00:04:03.240 --> 00:04:07.840
187
+ responder a cualquier pregunta basándome exclusivamente en la información que contiene». Entonces,
188
+
189
+ 00:04:07.840 --> 00:04:09.900
190
+ vamos a hacer una pregunta. Le voy a dar el contexto de que
191
+
192
+ 00:04:09.900 --> 00:04:14.859
193
+ estoy creando una aplicación móvil para una eh, institución crediticia. En este
194
+
195
+ 00:04:14.860 --> 00:04:18.039
196
+ caso, me faltó una S acá, institución, y que será uno de los
197
+
198
+ 00:04:18.040 --> 00:04:21.640
199
+ canales de atención. Y le preguntamos qué requisitos de autenticación de un
200
+
201
+ 00:04:21.640 --> 00:04:26.360
202
+ cliente debe tener mi aplicación. Lo enviamos. Entonces, la respuesta que me da
203
+
204
+ 00:04:26.360 --> 00:04:29.220
205
+ es justo un caso en donde me dice: «La información sobre los
206
+
207
+ 00:04:29.220 --> 00:04:33.780
208
+ requisitos de autenticación específicos para una aplicación móvil no se encuentran disponibles en
209
+
210
+ 00:04:33.780 --> 00:04:37.160
211
+ el documento de la ley de instituciones de crédito proporcionado». Y luego
212
+
213
+ 00:04:37.160 --> 00:04:40.480
214
+ me dice de qué se trata. Lo más importante que acabamos de ver
215
+
216
+ 00:04:40.480 --> 00:04:43.340
217
+ acá es que las dos técnicas de grounding que acabamos de ver,
218
+
219
+ 00:04:43.340 --> 00:04:47.000
220
+ donde le decimos el únicamente y donde le damos una indicación de qué
221
+
222
+ 00:04:47.000 --> 00:04:51.180
223
+ hacer si no está la información disponible, funcionó. En lugar de inventarse
224
+
225
+ 00:04:51.180 --> 00:04:56.780
226
+ algo, nos dijo: «La información no está disponible». Ahora hagamos un ejemplo cuando
227
+
228
+ 00:04:56.780 --> 00:05:00.850
229
+ la información sí está disponible. Vamos a abrir un nuevo chat y
230
+
231
+ 00:05:00.850 --> 00:05:06.320
232
+ vamos a subir dos documentos adicionales. Tenemos la ley de institucio-- de instituciones
233
+
234
+ 00:05:06.320 --> 00:05:10.840
235
+ de crédito, que es la que subimos anteriormente, y vamos a subir
236
+
237
+ 00:05:10.840 --> 00:05:13.640
238
+ dos documentos más que encuentras en el área de recursos, que es el
239
+
240
+ 00:05:13.640 --> 00:05:17.580
241
+ anexo sesenta y tres, que habla sobre cómo, eh, es el uso
242
+
243
+ 00:05:17.580 --> 00:05:21.740
244
+ de el servicio de banca electrónica y uno de los diarios de la
245
+
246
+ 00:05:21.740 --> 00:05:25.800
247
+ re-- de la federación que hablan también sobre esto. En este caso,
248
+
249
+ 00:05:25.800 --> 00:05:28.600
250
+ si tú solo sabes sobre la ley y no tienes información de dónde
251
+
252
+ 00:05:28.600 --> 00:05:33.200
253
+ encuentras la, la regulación que estás buscando, ahí es donde tienes que
254
+
255
+ 00:05:33.200 --> 00:05:35.800
256
+ hablarle a tu equipo legal para que te guíen a cuál es la
257
+
258
+ 00:05:35.800 --> 00:05:39.220
259
+ información correcta. Acá simulamos de que el equipo legal ya me respondió
260
+
261
+ 00:05:39.220 --> 00:05:43.520
262
+ que es esta. Vamos a agregar esa información y vamos a volver al
263
+
264
+ 00:05:43.520 --> 00:05:47.719
265
+ prompt con el que empezamos todo esto, pero voy a hacer una
266
+
267
+ 00:05:47.720 --> 00:05:52.680
268
+ ligera modificación. El prompt con el que empezamos era: «Eres un asistente legal
269
+
270
+ 00:05:52.680 --> 00:05:56.479
271
+ especializado en la regulación me-- bancaria mexicana. Basa tu respuesta únicamente en
272
+
273
+ 00:05:56.480 --> 00:06:00.920
274
+ el documento adjunto de la ley de Instituciones de Crédito». Si yo lo
275
+
276
+ 00:06:00.920 --> 00:06:04.784
277
+ dejo así...A pesar de haber subido el Diario de la Federación y
278
+
279
+ 00:06:04.784 --> 00:06:07.844
280
+ el Anexo sesenta y tres, no lo va a tener en cuenta, porque
281
+
282
+ 00:06:07.844 --> 00:06:11.824
283
+ estoy siendo explícito en qué documento se debe enfocar. Entonces, voy a
284
+
285
+ 00:06:11.864 --> 00:06:17.064
286
+ decir: «Y documentos adjuntos». Y si la información no está en lo-- en
287
+
288
+ 00:06:17.064 --> 00:06:22.444
289
+ los documentos, responde que no se encuentra disponible. Yo podría haber dejado
290
+
291
+ 00:06:22.444 --> 00:06:25.484
292
+ que si la información no está en el documento, responde que no se
293
+
294
+ 00:06:25.484 --> 00:06:29.004
295
+ encuentra disponible y capaz y funciona. Pero lo que queremos es que
296
+
297
+ 00:06:29.004 --> 00:06:32.884
298
+ cada vez que lo usemos, funcione siempre. Entonces, capaz funciona una vez, pero
299
+
300
+ 00:06:32.884 --> 00:06:35.984
301
+ luego lo interpreta de otra manera y no funciona. Es mejor usar
302
+
303
+ 00:06:35.984 --> 00:06:40.764
304
+ las palabras correctas para lo que queremos decir. Lo envío y ahora me
305
+
306
+ 00:06:40.764 --> 00:06:44.164
307
+ dice que ya revisó los documentos y ya los identificó. La ley
308
+
309
+ 00:06:44.164 --> 00:06:48.224
310
+ de instituciones de crédito, el Diario Oficial de la Federación y el Anexo
311
+
312
+ 00:06:48.224 --> 00:06:51.664
313
+ sesenta y tres CV. Y ya está listo para ayudarme. Y voy
314
+
315
+ 00:06:51.664 --> 00:06:55.154
316
+ a hacer la misma pregunta: Estoy creando una aplicación móvil, ¿qué requisitos o
317
+
318
+ 00:06:55.154 --> 00:06:59.124
319
+ autenticación de un cliente debo tener mi aplicación? Lo envío y ahora
320
+
321
+ 00:06:59.124 --> 00:07:03.604
322
+ me respondió. Me dice: «Según los documentos proporcionados, requisitos de autenticación basado en
323
+
324
+ 00:07:03.604 --> 00:07:08.424
325
+ el Anexo sesenta y tres, esto es lo que tengo para decir.
326
+
327
+ 00:07:08.424 --> 00:07:10.984
328
+ Según el Diario de la Federación que yo le pasé», porque le pasé
329
+
330
+ 00:07:10.984 --> 00:07:14.664
331
+ uno de los diarios, no le pasé todo, eh, menciona cuáles son
332
+
333
+ 00:07:14.664 --> 00:07:18.224
334
+ los mecanismos de autenticación, ta, ta, ta, ta, ta. Ahora viene una técnica
335
+
336
+ 00:07:18.224 --> 00:07:21.604
337
+ un poco más avanzada. Voy a pedirle que para cada respuesta que
338
+
339
+ 00:07:21.604 --> 00:07:28.224
340
+ me entregue, me dé, eh, la cita textual del artículo que corresponde para
341
+
342
+ 00:07:28.224 --> 00:07:32.044
343
+ poder ubicar la información que me está dando. Entonces, voy a darle
344
+
345
+ 00:07:32.044 --> 00:07:35.444
346
+ este prompt. Se lo voy a poner acá. Le voy a decir: «Para
347
+
348
+ 00:07:35.444 --> 00:07:39.303
349
+ cada requisito que menciones, incluye la cita textual del artículo correspondiente, entre
350
+
351
+ 00:07:39.304 --> 00:07:43.164
352
+ comillas». Y vamos a ver qué me dice. Me da la respuesta y,
353
+
354
+ 00:07:43.164 --> 00:07:46.644
355
+ por ejemplo, identificador del usuario, me dice: «El número de, de línea
356
+
357
+ 00:07:46.644 --> 00:07:49.964
358
+ de teléfono móvil del usuario cuyo número de línea se encuentra asociado al
359
+
360
+ 00:07:49.964 --> 00:07:53.744
361
+ servicio AT. Este dato debe ser obtenido de forma automática por la
362
+
363
+ 00:07:53.744 --> 00:07:57.444
364
+ institución para ser utilizado como identificador de usuario». Vamos a hacer algo. Voy
365
+
366
+ 00:07:57.444 --> 00:08:01.984
367
+ a coger esta información que me entregó acá y voy a irme
368
+
369
+ 00:08:01.984 --> 00:08:05.924
370
+ a el Anexo sesenta y tres, al documento que descargué. Voy a buscar
371
+
372
+ 00:08:05.924 --> 00:08:09.564
373
+ la cita textual, en este caso, tal cual como me la entregó.
374
+
375
+ 00:08:09.564 --> 00:08:13.444
376
+ Voy a ponerlo, voy a irme acá, tengo el Anexo sesenta y tres,
377
+
378
+ 00:08:13.444 --> 00:08:17.203
379
+ le doy buscar y no aparece. Vamos a hacer una prueba. Pasa
380
+
381
+ 00:08:17.204 --> 00:08:20.584
382
+ que algunos PDFs tienden a ser imágenes a pesar de que vemos los
383
+
384
+ 00:08:20.584 --> 00:08:24.504
385
+ textos. Entonces, voy a coger esta palabra de acá, voy a copiarla,
386
+
387
+ 00:08:24.504 --> 00:08:27.274
388
+ voy a buscarla y voy a ver que en efecto encontró el texto.
389
+
390
+ 00:08:27.274 --> 00:08:31.074
391
+ Entonces no es el problema de mi PDF. Acá yo podría buscar.
392
+
393
+ 00:08:31.074 --> 00:08:34.044
394
+ Entonces, voy a-- voy a coger un par de palabras nada más. Teléfono
395
+
396
+ 00:08:34.044 --> 00:08:39.004
397
+ móvil del usuario. Y vamos a buscar. Acá me sale: «Servicios y
398
+
399
+ 00:08:39.004 --> 00:08:41.784
400
+ operaciones bancarias a través de un servicio telé cuyo número de línea está
401
+
402
+ 00:08:41.784 --> 00:08:44.824
403
+ asociado al servicio. Este dato debe ser obtenido de forma automática por
404
+
405
+ 00:08:44.824 --> 00:08:48.364
406
+ la institución para ser utilizado como identificador de usuario». Entonces, quiero que veas
407
+
408
+ 00:08:48.364 --> 00:08:53.024
409
+ algo. En este caso, la cita textual no la encontró porque tiene
410
+
411
+ 00:08:53.024 --> 00:08:58.464
412
+ unos caracteres especiales que están acá. Pero, en general, la información que me
413
+
414
+ 00:08:58.464 --> 00:09:01.624
415
+ está diciendo acá es parecida a la información que me parece acá.
416
+
417
+ 00:09:01.624 --> 00:09:04.244
418
+ Lo único es que si no es textual, si ves en este caso,
419
+
420
+ 00:09:04.244 --> 00:09:06.844
421
+ dice: «El número de línea del teléfono móvil del usuario cuyo número
422
+
423
+ 00:09:06.844 --> 00:09:10.524
424
+ de línea se encuentra asociado». Y acá es: «Servicios de operaciones bancarias a
425
+
426
+ 00:09:10.524 --> 00:09:13.233
427
+ través de un teléfono móvil del usuario cuyo número de línea está
428
+
429
+ 00:09:13.233 --> 00:09:18.104
430
+ asociado al servicio». Entonces, puedes buscar la cita completa, a veces no la
431
+
432
+ 00:09:18.104 --> 00:09:21.864
433
+ vas a encontrar, puedes buscar palabras para encontrar la referencia y lo
434
+
435
+ 00:09:21.864 --> 00:09:24.944
436
+ importante es que no siempre la cita la va a entregar tal cual.
437
+
438
+ 00:09:24.944 --> 00:09:30.784
439
+ Y esto se lo podemos decir. «En la cita del Anexo sesenta
440
+
441
+ 00:09:30.784 --> 00:09:38.324
442
+ y tres, no la encontré en el documento. ¿Puedes de-decirme en qué página
443
+
444
+ 00:09:38.324 --> 00:09:43.324
445
+ está?» El punto de esta técnica que estamos viendo es que al
446
+
447
+ 00:09:43.324 --> 00:09:47.364
448
+ pedirle las citas textuales podemos validar la información en los documentos de donde
449
+
450
+ 00:09:47.364 --> 00:09:51.684
451
+ vienen. Y desde ahí, ya que validamos que la información sí existe
452
+
453
+ 00:09:51.684 --> 00:09:55.364
454
+ en el documento, ahí ya podemos empezar a hacer más preguntas para entender
455
+
456
+ 00:09:55.364 --> 00:09:59.224
457
+ los puntos exactos que hablan de lo que él detectó que soluciona
458
+
459
+ 00:09:59.224 --> 00:10:03.624
460
+ mi pregunta o la cuestión que le estoy poniendo. Vamos a preguntarle qué
461
+
462
+ 00:10:03.624 --> 00:10:07.864
463
+ es lo que dice todas estas leyes y regulaciones sobre la custodia
464
+
465
+ 00:10:07.864 --> 00:10:11.724
466
+ de la información. Voy a enviarlo y voy a ver cuál es el
467
+
468
+ 00:10:11.724 --> 00:10:15.324
469
+ resultado. Lo importante acá es que va a revisar los tres documentos
470
+
471
+ 00:10:15.324 --> 00:10:18.764
472
+ y me va a decir, con citas exactas, qué lugares habla sobre la
473
+
474
+ 00:10:18.764 --> 00:10:21.804
475
+ custodia de la información. E incluso si te das cuenta, el prompt
476
+
477
+ 00:10:21.804 --> 00:10:27.284
478
+ es bastante amplio. Podríamos estar diciendo custodia de información del cliente, de las
479
+
480
+ 00:10:27.284 --> 00:10:31.404
481
+ cuentas bancarias, de qué específicamente. Acá el punto es que vamos a
482
+
483
+ 00:10:31.404 --> 00:10:34.144
484
+ ver todo lo que lo menciona y de ahí podemos empezar una investigación
485
+
486
+ 00:10:34.144 --> 00:10:37.244
487
+ más profunda. Y si vemos, dice que en el Diario Oficial de
488
+
489
+ 00:10:37.244 --> 00:10:44.584
490
+ la Federación cuenta sobre esta información y... nada más. Ningún otro documento me
491
+
492
+ 00:10:44.584 --> 00:10:47.444
493
+ habla de esto. Si yo le doy acá, puedo ver exactamente de
494
+
495
+ 00:10:47.444 --> 00:10:54.524
496
+ cuál documento se basó. Le puedo decir: «En la ley de Instituciones Crediticias
497
+
498
+ 00:10:54.524 --> 00:11:03.004
499
+ se menciona algo?». Entonces, recordemos lo que veíamos en la clase pasada.
500
+
501
+ 00:11:03.004 --> 00:11:06.444
502
+ En este caso, solo habló sobre el Diario de la Federación, pero yo
503
+
504
+ 00:11:06.444 --> 00:11:09.304
505
+ puedo recordarle que tiene un documento disponible, que es la ley de
506
+
507
+ 00:11:09.304 --> 00:11:14.744
508
+ Instituciones Crediticias y ver o pedirle que vaya y consulte ese documento y
509
+
510
+ 00:11:14.744 --> 00:11:18.364
511
+ vea si ahí hay alguna información que no me está entregando porque
512
+
513
+ 00:11:18.364 --> 00:11:22.324
514
+ se enfocó solamente en el Diario de la Federación. Y dice: «De acuerdo
515
+
516
+ 00:11:22.324 --> 00:11:25.843
517
+ a la información contenida en el, en la ley de Instituciones de
518
+
519
+ 00:11:25.844 --> 00:11:29.944
520
+ Crédito que proporcionaste, no se encuentra disponible el término custodia de la información
521
+
522
+ 00:11:29.944 --> 00:11:34.044
523
+ ni se hace mes-- mención a requisitos específicos sobre este tema». Entonces,
524
+
525
+ 00:11:34.044 --> 00:11:38.224
526
+ con esta última técnica también validamos que en los otros documentos no haya
527
+
528
+ 00:11:38.224 --> 00:11:41.124
529
+ presente información y que no se le esté olvidando o no esté
530
+
531
+ 00:11:41.124 --> 00:11:45.864
532
+ alucinando al respecto. Incluso podríamos mejorar el prompt que hicimos sobre la custodia
533
+
534
+ 00:11:45.864 --> 00:11:50.824
535
+ de la información, aclarándole que consulte los tres documentos adjuntos para no
536
+
537
+ 00:11:50.824 --> 00:11:55.384
538
+ tener que hacer estas validaciones adicionales. Con esta técnica de grounding, acabas de
539
+
540
+ 00:11:55.384 --> 00:11:59.184
541
+ aprender cómo puedes forzar al modelo a responder solamente con la información
542
+
543
+ 00:11:59.184 --> 00:12:04.014
544
+ que le proporcionas, diciéndole que lo haga únicamente basado en los datos adjuntos,
545
+
546
+ 00:12:04.014 --> 00:12:08.223
547
+ pero también agregando una cláusula o una información que diga qué hacer
548
+
549
+ 00:12:08.224 --> 00:12:12.184
550
+ en caso de no encontrar la información. Recuerda, esto no va a reemplazar
551
+
552
+ 00:12:12.184 --> 00:12:15.324
553
+ un abogado, pero sí te va a dar información necesaria para llegar
554
+
555
+ 00:12:15.324 --> 00:12:19.144
556
+ con una propuesta más elaborada. Lo importante es que no creas ciegamente en
557
+
558
+ 00:12:19.144 --> 00:12:22.324
559
+ lo que te dice el LLM, sino que crees mecanismos donde puedas
560
+
561
+ 00:12:22.324 --> 00:12:25.944
562
+ validar la información que te entregó y que esas propuestas lleguen desde un
563
+
564
+ 00:12:25.944 --> 00:12:29.244
565
+ lugar más informado, en lugar de que llegues a una reunión creyendo
566
+
567
+ 00:12:29.244 --> 00:12:32.444
568
+ que sabes de qué estás hablando y de repente fue la inteligencia artificial
569
+
570
+ 00:12:32.444 --> 00:12:35.564
571
+ la que alucinó y te hizo ver que no sabías del tema
572
+
573
+ 00:12:35.564 --> 00:12:37.324
574
+ que estabas tratando.
575
+
prompt-engineering/12-Cadena de pensamiento y verificación con múltiples métodos en LLMs.sub.vtt ADDED
@@ -0,0 +1,233 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.280 --> 00:00:04.500
4
+ Si te pregunto cuánto pagarías por tres camisetas de veinticinco dólares con un
5
+
6
+ 00:00:04.500 --> 00:00:10.080
7
+ 20 % de descuento, ¿qué me responderías? En mi caso, yo empezaría
8
+
9
+ 00:00:10.080 --> 00:00:14.890
10
+ por decir: «Bueno, 20 % de veinticinco es cinco dólares, entonces veinte menos
11
+
12
+ 00:00:14.890 --> 00:00:19.960
13
+ cinco... veinticinco menos cinco son veinte dólares, por tres son sesenta dólares».
14
+
15
+ 00:00:19.960 --> 00:00:26.420
16
+ Entonces, pagarías sesenta dólares. Esto que acabo de hacer fue verbalizar cuál fue
17
+
18
+ 00:00:26.420 --> 00:00:30.919
19
+ mi cadena de pensamiento para llegar al resultado. Es decir, dije con
20
+
21
+ 00:00:30.920 --> 00:00:35.280
22
+ palabras cuál fue el paso a paso que ejecuté en mi cabeza para
23
+
24
+ 00:00:35.280 --> 00:00:39.620
25
+ llegar al resultado de sesenta dólares. Primero, tenía el valor de veinticinco,
26
+
27
+ 00:00:39.620 --> 00:00:42.600
28
+ luego saqué el 20 %, que son cinco dólares, luego esos cinco se
29
+
30
+ 00:00:42.600 --> 00:00:46.240
31
+ los resté a los veinticinco, me dio veinte dólares, y luego multipliqué
32
+
33
+ 00:00:46.240 --> 00:00:51.400
34
+ veinte por tres. Esto, a nivel de LLMs, se llama chain of thought
35
+
36
+ 00:00:51.400 --> 00:00:55.460
37
+ o cadena de pensamiento. Y básicamente es lo que hace un LLM
38
+
39
+ 00:00:55.460 --> 00:00:58.980
40
+ cada vez que le ponemos una tarea. Hace un par de años, para
41
+
42
+ 00:00:58.980 --> 00:01:02.820
43
+ poder estimular al LLM y llegar a esa cadena de pensamiento, teníamos
44
+
45
+ 00:01:02.820 --> 00:01:07.280
46
+ que darle un problema y decirle: «Piensa paso a paso». Y de repente,
47
+
48
+ 00:01:07.280 --> 00:01:11.660
49
+ lo que el LLM hacía era primero pensar cuáles son los pasos
50
+
51
+ 00:01:11.660 --> 00:01:15.480
52
+ para resolver el problema y luego ejecutar esos pasos. Hoy en día podemos
53
+
54
+ 00:01:15.480 --> 00:01:19.680
55
+ decir que los modelos de razonamiento son los que hacen este proceso,
56
+
57
+ 00:01:19.680 --> 00:01:22.740
58
+ pero la verdad es que todos los modelos hoy en día razonan. La
59
+
60
+ 00:01:22.740 --> 00:01:27.240
61
+ diferencia entre un modelo rápido y un modelo pro o sofisticado o
62
+
63
+ 00:01:27.240 --> 00:01:31.800
64
+ de problemas complejos, es cuánto tiempo tienen para razonar. Pero eso lo vamos
65
+
66
+ 00:01:31.800 --> 00:01:34.380
67
+ a ver en las clases del futuro. En esta clase quiero que
68
+
69
+ 00:01:34.380 --> 00:01:38.360
70
+ nos centremos en, primero, entender qué es esta cadena de pensamiento, que es
71
+
72
+ 00:01:38.360 --> 00:01:41.300
73
+ el paso a paso para llegar a resolver un problema, en donde
74
+
75
+ 00:01:41.300 --> 00:01:44.680
76
+ nosotros se lo podemos dar o le podemos pedir al LLM que los
77
+
78
+ 00:01:44.680 --> 00:01:48.900
79
+ piense. Y segundo, cómo a través de esta cadena de pensamiento podemos
80
+
81
+ 00:01:48.900 --> 00:01:53.220
82
+ generar múltiples caminos que nos den el mejor resultado posible. Esto último se
83
+
84
+ 00:01:53.220 --> 00:01:58.500
85
+ llama self consistency, que es pedirle al LLM llegar a diferentes formas
86
+
87
+ 00:01:58.500 --> 00:02:02.400
88
+ de resolver un problema, ver los resultados y asegurarnos que todas las formas
89
+
90
+ 00:02:02.400 --> 00:02:06.480
91
+ llegan al resultado que queremos, o, por lo menos, escoger cuál es
92
+
93
+ 00:02:06.480 --> 00:02:09.720
94
+ el resultado más común dentro de todas las formas que tuvo para resolver
95
+
96
+ 00:02:09.720 --> 00:02:13.380
97
+ un problema. Y para poder ver esto en acción, vamos a seguir
98
+
99
+ 00:02:13.380 --> 00:02:18.440
100
+ con nuestro problema de cómo resolveríamos comprar tres camisas de veinticinco dólares con
101
+
102
+ 00:02:18.440 --> 00:02:22.640
103
+ 20 % de descuento. Quiero que abras Microsoft Copilot y vamos a
104
+
105
+ 00:02:22.640 --> 00:02:26.320
106
+ abrir un nuevo chat y vas a poner el siguiente prompt: «¿Cuánto pagarías
107
+
108
+ 00:02:26.320 --> 00:02:29.680
109
+ por tres camisas de veinticinco dólares cada una con un 20 %
110
+
111
+ 00:02:29.680 --> 00:02:33.360
112
+ de descuento?» Lo vamos a enviar y vamos a ver que nos cuente
113
+
114
+ 00:02:33.360 --> 00:02:36.620
115
+ cuál es el resultado. Muchas veces vas a ver que puede decirte
116
+
117
+ 00:02:36.620 --> 00:02:41.860
118
+ simplemente sesenta dólares, y algo que puedes decir es: «Piensa paso a paso».
119
+
120
+ 00:02:41.860 --> 00:02:44.040
121
+ Y muchas otras veces vas a ver que te va a contar
122
+
123
+ 00:02:44.040 --> 00:02:47.010
124
+ cuál fue el proceso. En este caso me dice: «Para calcular cuánto pagarías
125
+
126
+ 00:02:47.010 --> 00:02:50.380
127
+ por tres camisas de veinticinco dólares cada una con un 20 %
128
+
129
+ 00:02:50.380 --> 00:02:55.370
130
+ de descuento, primero multiplica el precio. Sin el descuento da setenta y cinco
131
+
132
+ 00:02:55.370 --> 00:02:59.760
133
+ dólares. Luego, calcula el descuento del 20 %, que serían quince dólares,
134
+
135
+ 00:02:59.760 --> 00:03:03.900
136
+ y luego, al precio final, le resta el descuento y son sesenta dólares».
137
+
138
+ 00:03:03.900 --> 00:03:07.760
139
+ Acabamos de ver otro camino diferente al mío para resolver el mismo
140
+
141
+ 00:03:07.760 --> 00:03:13.100
142
+ problema y llega a la misma solución: sesenta dólares. Ahora, ¿cómo podríamos aplicar
143
+
144
+ 00:03:13.100 --> 00:03:16.579
145
+ el tema de self consistency en el caso de prompts? Vamos a
146
+
147
+ 00:03:16.580 --> 00:03:20.840
148
+ abrir un nuevo chat y vamos a modificar ligeramente mi prompt con una
149
+
150
+ 00:03:20.840 --> 00:03:25.540
151
+ frase simple. «¿Cuánto pagarías por tres camisas de veinticinco dólares cada una
152
+
153
+ 00:03:25.540 --> 00:03:30.109
154
+ con un 20 % de descuento? Dame tres métodos para calcular esto». Voy
155
+
156
+ 00:03:30.109 --> 00:03:34.320
157
+ a darle enter. Y acá me va a entregar tres métodos, tres
158
+
159
+ 00:03:34.320 --> 00:03:38.260
160
+ cadenas de pensamiento con los cuales va a llegar al resultado. Veamos el
161
+
162
+ 00:03:38.260 --> 00:03:41.820
163
+ resultado. Método uno: descuento sobre el precio final, que fue el que
164
+
165
+ 00:03:41.820 --> 00:03:47.040
166
+ ya vimos. Precio unitario con descuento, entonces me dice: «Veinticinco dólares menos el
167
+
168
+ 00:03:47.040 --> 00:03:51.520
169
+ 20 % de veinticinco. Veinticinco menos cinco igual veinte. Precio final: tres
170
+
171
+ 00:03:51.520 --> 00:03:55.840
172
+ por veinte, sesenta». Ese fue mi método. Y el tercero, multiplicación por el
173
+
174
+ 00:03:55.840 --> 00:04:01.020
175
+ porcentaje restante. Entonces, dice: «100 % menos 20 % es igual a
176
+
177
+ 00:04:01.020 --> 00:04:04.650
178
+ 80 %, que es igual a 0.8. El precio final es setenta y
179
+
180
+ 00:04:04.650 --> 00:04:09.680
181
+ cinco dólares por 0.8, sesenta dólares». En este caso que estamos hablando
182
+
183
+ 00:04:09.680 --> 00:04:13.960
184
+ de una operación matemática, los tres métodos me llevan al mismo resultado. Incluso
185
+
186
+ 00:04:13.960 --> 00:04:16.659
187
+ si el modelo hubiera alucinado o no hubiera hecho bien una de
188
+
189
+ 00:04:16.660 --> 00:04:23.900
190
+ las operaciones, esta forma de pedirle el resultado me permitiría detectar errores. Porque
191
+
192
+ 00:04:23.900 --> 00:04:27.900
193
+ podríamos ver cuál fue la cadena de pensamiento en cada método y
194
+
195
+ 00:04:27.900 --> 00:04:30.960
196
+ si uno de los métodos da un resultado diferente, ya entrar a indagar
197
+
198
+ 00:04:30.960 --> 00:04:34.539
199
+ cuál es el método correcto. O de plano podríamos co-- escoger la
200
+
201
+ 00:04:34.540 --> 00:04:39.540
202
+ respuesta más común. Ya depende de cada problema la solución que queramos darle.
203
+
204
+ 00:04:39.540 --> 00:04:44.880
205
+ Pero con estas dos técnicas, uno, hacer verbal o que explique cuál
206
+
207
+ 00:04:44.880 --> 00:04:48.640
208
+ es el paso a paso de resolver un problema y dos, pedirle diferentes
209
+
210
+ 00:04:48.640 --> 00:04:54.740
211
+ métodos, tenemos una alternativa más a cómo podemos evitar las alucinaciones o
212
+
213
+ 00:04:54.740 --> 00:04:59.320
214
+ cómo podemos evitar que se invente cosas que no necesitamos para resolver un
215
+
216
+ 00:04:59.320 --> 00:05:03.000
217
+ problema. En este caso lo hice con un problema matemático, pero quiero
218
+
219
+ 00:05:03.000 --> 00:05:06.360
220
+ que tomes el ejemplo de la clase anterior donde hablábamos de las leyes
221
+
222
+ 00:05:06.360 --> 00:05:10.560
223
+ del sistema bancario y le hagas una pregunta del cual le pidas
224
+
225
+ 00:05:10.560 --> 00:05:13.520
226
+ tres métodos para llegar a la respuesta. Y quiero que me des en
227
+
228
+ 00:05:13.520 --> 00:05:17.560
229
+ los comentarios cuáles fueron los métodos a los que llegaste haciendo el
230
+
231
+ 00:05:17.560 --> 00:05:21.260
232
+ método de self consistency con el problema que vimos en la clase anterior.
233
+
prompt-engineering/14-Modelos de razonamiento de ChatGPT y cadenas de pensamiento.sub.vtt ADDED
@@ -0,0 +1,389 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.400 --> 00:00:04.019
4
+ En la clase anterior hablamos sobre la cadena de pensamiento o chain of
5
+
6
+ 00:00:04.019 --> 00:00:07.580
7
+ thought, y veíamos que básicamente es el proceso paso a paso para
8
+
9
+ 00:00:07.580 --> 00:00:11.320
10
+ resolver un problema. Quiero ahondar un poco más en esto con el siguiente
11
+
12
+ 00:00:11.320 --> 00:00:14.160
13
+ ejemplo. Vamos a ir a ChatGPT, y la diferencia esta vez es
14
+
15
+ 00:00:14.160 --> 00:00:17.700
16
+ que voy a partir de una cuenta paga. Es decir, si tenías tu
17
+
18
+ 00:00:17.700 --> 00:00:21.600
19
+ cuenta gratis antes, en este caso vas a tener que suscribirte y
20
+
21
+ 00:00:21.600 --> 00:00:26.470
22
+ vas a poder disfrutar de varias configuraciones nuevas que tienes disponibles solo por
23
+
24
+ 00:00:26.470 --> 00:00:30.310
25
+ estar en la versión paga. Lo primero que vas a tener disponible
26
+
27
+ 00:00:30.310 --> 00:00:34.400
28
+ es el-- la posibilidad de cambiar de modelo. En la parte de arriba,
29
+
30
+ 00:00:34.400 --> 00:00:37.960
31
+ donde dice ChatGPT 5, vas a ver que tiene una flecha y
32
+
33
+ 00:00:37.960 --> 00:00:41.990
34
+ cuando le picas vas a ver lo siguiente. Vas a ver la-- el
35
+
36
+ 00:00:41.990 --> 00:00:45.820
37
+ modo automático en donde él decide qué modelo de estos que me
38
+
39
+ 00:00:45.820 --> 00:00:49.680
40
+ muestra va a usar según el problema que yo le lanzo, o puedo
41
+
42
+ 00:00:49.680 --> 00:00:55.460
43
+ decirle directamente: «Quiero que me des el modelo instantáneo que me da
44
+
45
+ 00:00:55.460 --> 00:01:01.570
46
+ las respuestas sin darse un tiempo muy largo para pensar cómo resolverlo». Luego,
47
+
48
+ 00:01:01.570 --> 00:01:04.280
49
+ Thinking, que es el modelo que se va a tomar el tiempo
50
+
51
+ 00:01:04.280 --> 00:01:08.420
52
+ para pensar para resolver. Y luego tenemos el modelo Pro, que este solo
53
+
54
+ 00:01:08.420 --> 00:01:13.000
55
+ está disponible cuando pagas ChatGPT, la versión más alta, o cuando tienes
56
+
57
+ 00:01:13.000 --> 00:01:16.740
58
+ una cuenta de Enterprise y haces parte de un grupo de trabajo, tienes
59
+
60
+ 00:01:16.740 --> 00:01:21.700
61
+ ciertas capacidades del Pro limitadas al día a día. Y luego tenemos
62
+
63
+ 00:01:21.700 --> 00:01:24.480
64
+ los modelos Legacy, que es poder acceder a los modelos que había lanzado
65
+
66
+ 00:01:24.480 --> 00:01:28.680
67
+ antes ChatGPT, pero eso no lo necesitamos en este momento. Nos vamos
68
+
69
+ 00:01:28.680 --> 00:01:33.740
70
+ a enfocar en qué tanto queremos que piense la respuesta. Y para este
71
+
72
+ 00:01:33.740 --> 00:01:37.840
73
+ primer ejemplo vamos a irnos con el modelo instantáneo. Y el primer
74
+
75
+ 00:01:37.840 --> 00:01:40.920
76
+ ejemplo que vamos a poner es el siguiente prompt: «Un grupo de veintitrés
77
+
78
+ 00:01:40.920 --> 00:01:44.860
79
+ personas quiere sentarse en mesas con seis sillas cada una. ¿Son suficientes
80
+
81
+ 00:01:44.860 --> 00:01:48.580
82
+ cuatro mesas?» Lo que quiero que veas es cómo el mismo prompt lo
83
+
84
+ 00:01:48.580 --> 00:01:52.220
85
+ va a resolver dependiendo de cuál es el modelo que usamos y,
86
+
87
+ 00:01:52.220 --> 00:01:57.600
88
+ luego, cómo podemos inducir ese pensamiento paso a paso que queremos ejecutar cada
89
+
90
+ 00:01:57.600 --> 00:02:02.480
91
+ vez que lanzamos un prompt. Lo envío y vemos que la respuesta
92
+
93
+ 00:02:02.480 --> 00:02:05.940
94
+ es instantánea. Me dice: «Cada mesa tiene seis sillas y hay cuatro mesas,
95
+
96
+ 00:02:05.940 --> 00:02:10.440
97
+ entonces seis por cuatro, veinticuatro sillas en total. Como el grupo es
98
+
99
+ 00:02:10.440 --> 00:02:13.780
100
+ de veintitrés personas y veintitrés es menor a veinticuatro, entonces se alcanzan las
101
+
102
+ 00:02:13.780 --> 00:02:19.000
103
+ sillas, sobraría una silla libre». Aunque no le dijimos que nos mostrara
104
+
105
+ 00:02:19.000 --> 00:02:22.160
106
+ la cadena de pensamiento, lo hizo y fue muy rápido en darnos la
107
+
108
+ 00:02:22.160 --> 00:02:26.700
109
+ respuesta. También es un problema bastante simple. No nos enfoquemos en la
110
+
111
+ 00:02:26.700 --> 00:02:31.380
112
+ complejidad del problema. Veamos exactamente el mismo problema con el modelo Thinking. Creamos
113
+
114
+ 00:02:31.380 --> 00:02:35.680
115
+ un nuevo chat, cambiamos el modelo a Thinking y, tal cual como
116
+
117
+ 00:02:35.680 --> 00:02:38.590
118
+ lo acabamos de hacer, le decimos el mismo prompt: «Un grupo de veintitrés
119
+
120
+ 00:02:38.590 --> 00:02:43.400
121
+ personas quiere sentarse en seis sillas cada una. ¿Son suficientes cuatro mesas?»
122
+
123
+ 00:02:43.400 --> 00:02:45.500
124
+ Y lo primero que vamos a ver es que se va a demorar
125
+
126
+ 00:02:45.500 --> 00:02:49.940
127
+ más, va a decir Thinking. Y en ese Thinking nos dice: «Sí,
128
+
129
+ 00:02:49.940 --> 00:02:54.020
130
+ cada mesa tiene seis sillas, cuatro mesas, cuatro por seis, veinticuatro, son veintitrés
131
+
132
+ 00:02:54.020 --> 00:02:58.600
133
+ personas, alcanzas y sobra una silla». Me dio la misma respuesta, pero
134
+
135
+ 00:02:58.600 --> 00:03:02.500
136
+ le tomó un poquito más de tiempo llegar a ella. Ahora, en cada
137
+
138
+ 00:03:02.500 --> 00:03:07.380
139
+ una de estas que acabamos de ver, eh, pues en la primera
140
+
141
+ 00:03:07.380 --> 00:03:10.180
142
+ nos contó un poco la operación matemática para llegar allá y nos dio
143
+
144
+ 00:03:10.180 --> 00:03:13.600
145
+ la narrativa de cómo llegó allá, pero incluso cómo pensó que tenía
146
+
147
+ 00:03:13.600 --> 00:03:18.840
148
+ que hacer una operación matemática. Acá, de hecho, lo pensó y llegó a
149
+
150
+ 00:03:18.840 --> 00:03:23.299
151
+ la misma respuesta y nos cuenta la misma operación matemática, pero todavía
152
+
153
+ 00:03:23.300 --> 00:03:26.400
154
+ queda la duda, cómo llegó a que esto lo podía resolver de esa
155
+
156
+ 00:03:26.400 --> 00:03:31.240
157
+ manera. Vamos a hacer un nuevo chat y bajo el mismo Thinking
158
+
159
+ 00:03:31.240 --> 00:03:35.000
160
+ vamos a usar el mismo prompt, pero le voy a decir: «Piensa "paso
161
+
162
+ 00:03:35.000 --> 00:03:39.220
163
+ a paso"». Y lo enviamos. Y ahora nos va a salir el
164
+
165
+ 00:03:39.220 --> 00:03:45.140
166
+ Thinking. Y si esperamos un segundo más, nos va a decir calculando las
167
+
168
+ 00:03:45.140 --> 00:03:50.180
169
+ sillas y dice: «Pensé por cuatro segundos». Vamos a calcularlo. Cuatro mesas
170
+
171
+ 00:03:50.180 --> 00:03:53.880
172
+ con seis sillas cada una, cuatro por seis, veinticuatro. Como hay veintitrés personas,
173
+
174
+ 00:03:53.880 --> 00:03:58.100
175
+ comparamos veinticuatro sobre veintitrés, por lo tanto, sobra una silla. Listo, tarea
176
+
177
+ 00:03:58.100 --> 00:04:03.100
178
+ resuelta. El paso corto es este. Puedes organizar, por ejemplo, tres mesas con
179
+
180
+ 00:04:03.100 --> 00:04:06.360
181
+ seis personas y una mesa con cinco. A todos llegamos al mismo
182
+
183
+ 00:04:06.360 --> 00:04:10.860
184
+ resultado, pero la diferencia es cómo el prompt nos permitió ver cuál fue
185
+
186
+ 00:04:10.860 --> 00:04:15.500
187
+ el proceso de pensamiento para llegar allá. ¿Esto qué quiere decir? ¿Que
188
+
189
+ 00:04:15.500 --> 00:04:18.620
190
+ nuestros prompts ahora tienen que ser más sencillos, ya que el modelo puede
191
+
192
+ 00:04:18.620 --> 00:04:23.820
193
+ razonar, puede pensar ese paso a paso? La verdad es que depende
194
+
195
+ 00:04:23.820 --> 00:04:26.320
196
+ del problema. Y el ejercicio que acabamos de hacer es lo que te
197
+
198
+ 00:04:26.320 --> 00:04:29.760
199
+ invito a hacer cada vez que tú vayas a tener un prompt.
200
+
201
+ 00:04:29.820 --> 00:04:33.990
202
+ Yo siempre intento el mismo problema, resolverlo con diferentes modelos en la misma
203
+
204
+ 00:04:33.990 --> 00:04:38.340
205
+ herramienta y ver cuál es la calidad de la respuesta. E incluso
206
+
207
+ 00:04:38.340 --> 00:04:41.640
208
+ si yo veo que la respuesta está llegando a ser no la que
209
+
210
+ 00:04:41.640 --> 00:04:44.680
211
+ yo esperaba, le doy el paso a paso que yo espero que
212
+
213
+ 00:04:44.680 --> 00:04:47.940
214
+ siga, porque cuando le doy el paso a paso que yo espero que
215
+
216
+ 00:04:47.940 --> 00:04:51.900
217
+ siga, estoy limitando también esa cadena de pensamiento. Cada uno de esos
218
+
219
+ 00:04:51.900 --> 00:04:54.840
220
+ pasos se va a convertir en un prompt y cada uno de esos
221
+
222
+ 00:04:54.840 --> 00:05:00.580
223
+ pasos los va a usar para pensar cómo resolverlos. Entonces, estamos limitando
224
+
225
+ 00:05:00.580 --> 00:05:05.540
226
+ los caminos por los que se puede ir. Incluso, hagamos algo nuevo. Vamos
227
+
228
+ 00:05:05.540 --> 00:05:11.000
229
+ a decirle este mismo prompt y le vamos a decir: «Descríbeme el
230
+
231
+ 00:05:11.000 --> 00:05:22.180
232
+ paso a paso... Paso que harías para resolver este tipo de problemas. Dame
233
+
234
+ 00:05:22.180 --> 00:05:27.420
235
+ tres alternativas». Y vamos a ver cuál es la respuesta. Esto lo
236
+
237
+ 00:05:27.420 --> 00:05:30.820
238
+ está haciendo en el modelo Thinking. Acá tenemos la respuesta y quiero que
239
+
240
+ 00:05:30.820 --> 00:05:33.360
241
+ veas lo siguiente. Al pedirle que me dé el paso a paso
242
+
243
+ 00:05:33.360 --> 00:05:35.460
244
+ que-- de lo que haría como si fuera un template y que me
245
+
246
+ 00:05:35.460 --> 00:05:39.599
247
+ diera tres alternativas, uno, estamos aplicando lo que aprendimos en la clase
248
+
249
+ 00:05:39.600 --> 00:05:43.520
250
+ pasada de self-consistency, pero dos, el problema fue más complejo y en este
251
+
252
+ 00:05:43.520 --> 00:05:47.820
253
+ caso pensó por quince segundos. Y cuando le doy que-- clic acá,
254
+
255
+ 00:05:47.820 --> 00:05:52.060
256
+ voy a ver cuál fue la cadena de pensamiento. En este caso, ChatGPT
257
+
258
+ 00:05:52.060 --> 00:05:56.240
259
+ está configurado para que piense en inglés. Entonces, voy a ver el
260
+
261
+ 00:05:56.240 --> 00:05:59.710
262
+ paso a paso y la cadena de pensamiento en inglés, y luego voy
263
+
264
+ 00:05:59.710 --> 00:06:03.728
265
+ a ver el resultado. Y acá puedo ver...Voy a responder el problema
266
+
267
+ 00:06:03.728 --> 00:06:09.248
268
+ matemático que tiene, eh, y mostrar los pasos. Va a ofrecer tres approaches.
269
+
270
+ 00:06:09.248 --> 00:06:13.538
271
+ Entonces, lo primero que pensó fue cuáles son los-- las diferentes alternativas.
272
+
273
+ 00:06:13.538 --> 00:06:21.268
274
+ Multiplicación y comparación, división y redondear hacia arriba, y luego, uso de, de...
275
+
276
+ 00:06:21.268 --> 00:06:28.228
277
+ división y dividendos. Y luego, va a crear la respuesta que me
278
+
279
+ 00:06:28.228 --> 00:06:33.328
280
+ muestra las tres alternativas, y con eso luego hizo el breakdown de cómo
281
+
282
+ 00:06:33.328 --> 00:06:35.668
283
+ se ve esa respuesta y ya me la mostró y acá la
284
+
285
+ 00:06:35.668 --> 00:06:39.328
286
+ tenemos. Voy a usar una de las plantillas que me dio, multiplicar y
287
+
288
+ 00:06:39.328 --> 00:06:43.288
289
+ comparar. Voy a irme a un nuevo chat, voy a poner multiplicar
290
+
291
+ 00:06:43.288 --> 00:06:51.288
292
+ y comparar. Eh, le voy a decir: «Usando este template, resuelve el problema
293
+
294
+ 00:06:51.288 --> 00:06:55.888
295
+ que te daré». El template es este, y luego le digo el
296
+
297
+ 00:06:55.888 --> 00:06:59.988
298
+ problema, y el problema va a ser ligeramente distinto al que le había
299
+
300
+ 00:06:59.988 --> 00:07:04.228
301
+ dado. Voy a ponerlo acá, le voy a decir: «Un grupo de
302
+
303
+ 00:07:04.228 --> 00:07:08.018
304
+ veintitrés personas quiere sentarse en seis sillas cada una, ¿son suficientes cuatro mesas?»
305
+
306
+ 00:07:08.018 --> 00:07:11.648
307
+ Le voy a decir que son trescientas personas y voy a decirle
308
+
309
+ 00:07:11.648 --> 00:07:16.808
310
+ que si son suficientes, doscientas mesas. No, mentiras, voy a decirle que sí
311
+
312
+ 00:07:16.808 --> 00:07:22.028
313
+ son suficientes cincuenta mesas. Entonces, mismo prompt, estamos cambiando las variables para
314
+
315
+ 00:07:22.028 --> 00:07:26.688
316
+ ver que la plantilla que le estoy dando funciona, pero ahora el paso
317
+
318
+ 00:07:26.688 --> 00:07:29.628
319
+ a paso ya está acotado a que esta sea la forma en
320
+
321
+ 00:07:29.628 --> 00:07:34.048
322
+ la que lo va a resolver. Lo enviamos y originalmente, cuando le pusimos
323
+
324
+ 00:07:34.048 --> 00:07:36.948
325
+ el prompt sin el paso a paso, pensó por cuatro segundos. Cuando
326
+
327
+ 00:07:36.948 --> 00:07:40.908
328
+ le pedimos la plantilla, pensó por quince segundos. Y acá ni siquiera alcanzó
329
+
330
+ 00:07:40.908 --> 00:07:45.308
331
+ a decirme cuánto, fue a few seconds, unos pocos segundos. Y lo
332
+
333
+ 00:07:45.308 --> 00:07:49.698
334
+ que hizo fue seguir literalmente el paso a paso. Vamos a multiplicar cincuenta
335
+
336
+ 00:07:49.698 --> 00:07:53.808
337
+ por seis, trescientos. Comparamos con las trescientas personas, trescientos es mayor o
338
+
339
+ 00:07:53.808 --> 00:07:59.328
340
+ igual a trescientos. Conclusión, es exactamente suficiente y me entrega ese resultado. No
341
+
342
+ 00:07:59.328 --> 00:08:03.248
343
+ sobran sillas, es exactamente suficiente. Con modelos de razonamiento como lo que
344
+
345
+ 00:08:03.248 --> 00:08:06.048
346
+ acabamos de ver, algo que a mí me ha sido muy útil es
347
+
348
+ 00:08:06.048 --> 00:08:10.327
349
+ empezar con el problema muy amplio, ver alternativas de cómo es el
350
+
351
+ 00:08:10.328 --> 00:08:15.228
352
+ chain of thought o esa cadena de pensamiento para resolverlo... Después de analizar
353
+
354
+ 00:08:15.228 --> 00:08:18.148
355
+ la cadena de pensamiento, unificar cuál es la que más me parece
356
+
357
+ 00:08:18.148 --> 00:08:22.228
358
+ que resolvería el problema de manera más efectiva y luego volver a ir
359
+
360
+ 00:08:22.228 --> 00:08:25.308
361
+ con el prompt dándole el paso a paso que va a resolver
362
+
363
+ 00:08:25.308 --> 00:08:30.448
364
+ el problema para el futuro. Con esto también empiezo a evitar un problema
365
+
366
+ 00:08:30.448 --> 00:08:34.648
367
+ que es: ¿Cuáles son las palabras para-- correctas para decir esto? Estamos
368
+
369
+ 00:08:34.648 --> 00:08:38.508
370
+ cayendo en cuáles son las palabras que usaría el modelo para pensar en
371
+
372
+ 00:08:38.508 --> 00:08:43.048
373
+ cómo resolver el problema y basados en eso complementar el prompt para
374
+
375
+ 00:08:43.048 --> 00:08:48.228
376
+ ir limitando esa creatividad y llegar al resultado que siempre estamos esperando. Esto
377
+
378
+ 00:08:48.228 --> 00:08:51.128
379
+ quiere decir que en modelos de razonamiento no significa que nos saltemos
380
+
381
+ 00:08:51.128 --> 00:08:55.248
382
+ el paso a paso, significa que tenemos una herramienta más para poder acotar
383
+
384
+ 00:08:55.248 --> 00:08:58.788
385
+ esa creatividad y llegar al prompt exacto que necesitamos para resolver un
386
+
387
+ 00:08:58.788 --> 00:08:59.448
388
+ problema.
389
+
prompt-engineering/15-Prompt chaining dividir tareas complejas en pasos independientes.sub.vtt ADDED
@@ -0,0 +1,362 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.220 --> 00:00:03.880
4
+ Piensa en prompt chaining como si fuera una línea de ensamblaje. Estamos en
5
+
6
+ 00:00:03.880 --> 00:00:06.779
7
+ una fábrica de autos y la realidad es que no es que
8
+
9
+ 00:00:06.780 --> 00:00:09.820
10
+ digamos: «Quiero un auto» y de repente sale un auto. Hay un primer
11
+
12
+ 00:00:09.820 --> 00:00:12.980
13
+ paso con la carrocería, hay un segundo paso, donde se ponen las
14
+
15
+ 00:00:12.980 --> 00:00:16.219
16
+ puertas, hay un tercer paso, donde se pone todo lo eléctrico, hay un
17
+
18
+ 00:00:16.219 --> 00:00:20.040
19
+ cuarto paso, donde se pone el motor, hay un quinto paso, donde
20
+
21
+ 00:00:20.040 --> 00:00:24.150
22
+ se pone toda la cojinería y cada uno de esos pasos va dando
23
+
24
+ 00:00:24.150 --> 00:00:27.030
25
+ pie al siguiente para poder terminar al final de la cadena de
26
+
27
+ 00:00:27.030 --> 00:00:31.300
28
+ ensamblaje con un coche construido. Con los prompts funciona igual. En lugar de
29
+
30
+ 00:00:31.300 --> 00:00:34.420
31
+ tener un prompt gigante que llegue y me diga: «Creo una estrategia
32
+
33
+ 00:00:34.420 --> 00:00:39.360
34
+ de marketing para el siguiente Q del año», pues es una tarea gigante.
35
+
36
+ 00:00:39.360 --> 00:00:42.700
37
+ Y ya vimos chain of thought y ya vimos self-consistency, y sí,
38
+
39
+ 00:00:42.700 --> 00:00:46.820
40
+ podemos tener el paso a paso y puedes llegar a un resultado. Pero
41
+
42
+ 00:00:46.820 --> 00:00:51.300
43
+ igual como en una cadena de ensamblaje de un coche, cada estación
44
+
45
+ 00:00:51.300 --> 00:00:53.980
46
+ tiene un propósito y tiene muy claro qué es lo que tiene que
47
+
48
+ 00:00:53.980 --> 00:00:57.620
49
+ resolver y cuál es su resultado para pasar a la siguiente estación.
50
+
51
+ 00:00:57.620 --> 00:01:01.440
52
+ En este caso, si vamos a crear una estrategia de marketing y nosotros
53
+
54
+ 00:01:01.440 --> 00:01:05.280
55
+ somos expertos en marketing, podríamos partir desde ahí arriba, pero la verdad
56
+
57
+ 00:01:05.280 --> 00:01:08.280
58
+ es que nosotros sabemos cómo hacer una estrategia de marketing paso a paso
59
+
60
+ 00:01:08.280 --> 00:01:11.710
61
+ y cuál es el resultado de cada una de esas estaciones. Va
62
+
63
+ 00:01:11.710 --> 00:01:14.200
64
+ a ser muy parecido a lo que hicimos en chain of thought, donde
65
+
66
+ 00:01:14.200 --> 00:01:17.760
67
+ tenemos un paso a paso, pero acá estamos dividiendo el problema en
68
+
69
+ 00:01:17.760 --> 00:01:20.320
70
+ cada uno de esos pasos para que cada uno de esos pasos sea
71
+
72
+ 00:01:20.320 --> 00:01:23.539
73
+ un prompt, para que cada uno de esos pasos sea algo que
74
+
75
+ 00:01:23.540 --> 00:01:26.920
76
+ hacemos dentro del ChatGPT o dentro del LLM, de preferencia en un nuevo
77
+
78
+ 00:01:26.920 --> 00:01:31.140
79
+ chat. Imagina, por ejemplo, que a partir de un resumen de un
80
+
81
+ 00:01:31.140 --> 00:01:35.760
82
+ artículo de un blog que escribiste, quieres hacer las publicaciones en social media.
83
+
84
+ 00:01:35.760 --> 00:01:39.320
85
+ Primero, el punto es sacar los puntos claves de ese blog post
86
+
87
+ 00:01:39.320 --> 00:01:43.060
88
+ que escribiste. Lo siguiente es que cada uno de esos puntos claves los
89
+
90
+ 00:01:43.060 --> 00:01:47.030
91
+ vas a convertir en una publicación para una red social. Digamos que
92
+
93
+ 00:01:47.030 --> 00:01:50.280
94
+ es Instagram. Luego de que sabes cómo cada uno de esos puntos se
95
+
96
+ 00:01:50.280 --> 00:01:53.740
97
+ convierte en la publicación de Instagram, lo siguiente es crear la pie--
98
+
99
+ 00:01:53.740 --> 00:01:58.120
100
+ la pieza gráfica. Luego de que creaste la pieza gráfica, lo siguiente va
101
+
102
+ 00:01:58.120 --> 00:02:00.640
103
+ a ser crear el texto que va a acompañar esa pieza cuando
104
+
105
+ 00:02:00.640 --> 00:02:04.840
106
+ la publiques. Y hasta que tengas todos esos pasos resueltos, vas a poder
107
+
108
+ 00:02:04.840 --> 00:02:09.620
109
+ publicar esa pieza en tu feed. Aquí el punto es que podríamos
110
+
111
+ 00:02:09.620 --> 00:02:13.160
112
+ hacerlo en una sola conversación, pero ya hemos venido hablando sobre cuál es
113
+
114
+ 00:02:13.160 --> 00:02:16.980
115
+ el problema de agrandar la ventana de contexto. Y lo más óptimo
116
+
117
+ 00:02:16.980 --> 00:02:21.020
118
+ para sacar el mejor provecho de un LLM es que dejemos de hacerlo
119
+
120
+ 00:02:21.020 --> 00:02:24.660
121
+ en una sola conversación y que el resultado de cada paso pase
122
+
123
+ 00:02:24.660 --> 00:02:28.100
124
+ a un nuevo chat para partir al siguiente paso que tenemos en la
125
+
126
+ 00:02:28.100 --> 00:02:31.320
127
+ cadena, justo como si habláramos de la cadena de producción de un
128
+
129
+ 00:02:31.320 --> 00:02:34.320
130
+ coche. Vamos a ir a un ejemplo detallado y es que voy a
131
+
132
+ 00:02:34.320 --> 00:02:39.160
133
+ tomar el último reporte de la organización Cl-Climate Change Committee, que está
134
+
135
+ 00:02:39.160 --> 00:02:44.560
136
+ en Inglaterra, que en abril de 2025 generó un reporte sobre cómo estaba
137
+
138
+ 00:02:44.560 --> 00:02:48.660
139
+ avanzando la adopción de cambio climático dentro de Inglaterra al Parlamento. Y
140
+
141
+ 00:02:48.660 --> 00:02:52.480
142
+ a partir de eso vamos a tratar de generar contenido que venga de
143
+
144
+ 00:02:52.480 --> 00:02:55.120
145
+ ese reporte. Vamos a crear un resumen de cien palabras que de
146
+
147
+ 00:02:55.120 --> 00:03:00.020
148
+ verdad nos aporte para entender las causas, efectos y soluciones del cambio climático.
149
+
150
+ 00:03:00.020 --> 00:03:02.900
151
+ Pero, pues hacer un resumen es bastante sencillo. Lo hicimos en el
152
+
153
+ 00:03:02.900 --> 00:03:06.080
154
+ primer módulo con un solo prompt. Acá vamos a hacer algo diferente, lo
155
+
156
+ 00:03:06.080 --> 00:03:09.700
157
+ vamos a dividir en tres pasos. El primer paso va a sacar
158
+
159
+ 00:03:09.700 --> 00:03:13.660
160
+ los puntos más relevantes del reporte. El segundo paso lo va a clasificar
161
+
162
+ 00:03:13.660 --> 00:03:17.780
163
+ entre causas, efectos y soluciones. Y el tercer paso va a tomar
164
+
165
+ 00:03:17.780 --> 00:03:21.780
166
+ ese resultado para generar el resumen. Veamos cómo cambia comparado a lo que
167
+
168
+ 00:03:21.780 --> 00:03:24.840
169
+ hicimos en el primer módulo. En la parte de recursos te dejé
170
+
171
+ 00:03:24.840 --> 00:03:28.150
172
+ tres archivos: un PDF, que es el reporte de cómo es el progreso
173
+
174
+ 00:03:28.150 --> 00:03:33.060
175
+ adaptándose al cambio climático en Inglaterra, y dos, eh, spreadsheets, uno que
176
+
177
+ 00:03:33.060 --> 00:03:36.240
178
+ trae todas las gráficas y datos que aportan al reporte y uno que
179
+
180
+ 00:03:36.240 --> 00:03:40.900
181
+ tiene una serie de recomendaciones. Y tenemos nuestro prompt. Extrae los cinco
182
+
183
+ 00:03:40.900 --> 00:03:44.080
184
+ puntos más importantes del reporte que te adjunté sobre el progreso del cambio
185
+
186
+ 00:03:44.080 --> 00:03:48.020
187
+ climático en UK. Le vamos a dar enviar. Y algo que vamos
188
+
189
+ 00:03:48.020 --> 00:03:50.640
190
+ a ver es que apenas lo envío, va a tratar de mostrarme un
191
+
192
+ 00:03:50.640 --> 00:03:53.460
193
+ preview de los archivos que subí. Entonces, me está diciendo que no
194
+
195
+ 00:03:53.460 --> 00:03:57.000
196
+ me puede mostrar el preview de, eh, gráficas y datos, pero sí me
197
+
198
+ 00:03:57.000 --> 00:04:01.480
199
+ muestra el de las recomendaciones y el PDF está por acá. Y
200
+
201
+ 00:04:01.480 --> 00:04:05.300
202
+ ahora, como estoy usando el thinking, va a tardarse un rato, pero también
203
+
204
+ 00:04:05.300 --> 00:04:07.900
205
+ yo puedo ver cuál es el chain of thought. Lo primero que
206
+
207
+ 00:04:07.900 --> 00:04:12.480
208
+ está haciendo es leyendo los documentos. Le dio doble lectura. Y ya que
209
+
210
+ 00:04:12.480 --> 00:04:16.760
211
+ terminó la segunda lectura, dice: «El usuario preguntó por cinco key points.
212
+
213
+ 00:04:16.760 --> 00:04:19.880
214
+ Voy a enfocarme en lo siguiente, ta, ta, ta». Y me entrega los
215
+
216
+ 00:04:19.880 --> 00:04:23.840
217
+ cinco mensajes claves del reporte e incluso me da las citas de
218
+
219
+ 00:04:23.840 --> 00:04:29.120
220
+ dónde encuentro esa información de la cual se basó para darme la respuesta.
221
+
222
+ 00:04:29.120 --> 00:04:31.860
223
+ Y esto es lo clave. Yo voy a irme al icono de
224
+
225
+ 00:04:31.860 --> 00:04:35.120
226
+ acá que dice copiar, le voy a picar y me voy a ir
227
+
228
+ 00:04:35.120 --> 00:04:39.700
229
+ al nuevo chat. Y acá le voy a decir: toma los siguientes
230
+
231
+ 00:04:39.700 --> 00:04:44.360
232
+ puntos, dos puntos, y voy a pegar lo que me dio. En este
233
+
234
+ 00:04:44.360 --> 00:04:47.800
235
+ caso, simplemente, voy a quitar la información que no me sirve, voy
236
+
237
+ 00:04:47.800 --> 00:04:51.940
238
+ a dejar solamente los puntos, y desde acá le voy a decir que
239
+
240
+ 00:04:51.940 --> 00:04:57.659
241
+ me los organice por las categorías que estoy buscando generar el reporte.
242
+
243
+ 00:04:57.660 --> 00:05:01.950
244
+ Entonces, le voy a decir: organízalos en categorías de progreso, recomendaciones e impacto.
245
+
246
+ 00:05:01.950 --> 00:05:07.260
247
+ E incluso con lo que ya aprendí, voy a decirle: cinco puntos
248
+
249
+ 00:05:07.260 --> 00:05:19.340
250
+ clave del reporte de cambio climático... UK. Voy a poner acá la etiqueta,
251
+
252
+ 00:05:19.340 --> 00:05:23.240
253
+ la copio, me voy hasta el final, la pego y la cierro.
254
+
255
+ 00:05:23.240 --> 00:05:26.460
256
+ Y con eso ya le estoy diciendo que los puntos inician ahí y
257
+
258
+ 00:05:26.460 --> 00:05:33.660
259
+ que quiero que los organice en esto. Vamos a enviarlo... Y el
260
+
261
+ 00:05:33.660 --> 00:05:36.480
262
+ prompt va a hacer que empiece a pensar, porque estamos en el modelo
263
+
264
+ 00:05:36.480 --> 00:05:42.700
265
+ thinking. Pensó por seis segundos y tenemos el resultado. Progreso está acá,
266
+
267
+ 00:05:42.700 --> 00:05:48.860
268
+ recomendaciones está acá, impacto están acá. Tal cual, lo que yo le pasé
269
+
270
+ 00:05:48.860 --> 00:05:52.400
271
+ arriba lo acabo de clasificar. Vamos a copiar este resultado y nos
272
+
273
+ 00:05:52.400 --> 00:05:56.180
274
+ vamos a ir a un nuevo chat. Acá le voy a decir: «A
275
+
276
+ 00:05:56.180 --> 00:06:07.040
277
+ partir de los hallazgos del reporte de progreso en adaptación al cambio
278
+
279
+ 00:06:07.040 --> 00:06:19.170
280
+ climático...OK, voy a poner «A partir de los siguientes hallazgos». Dos puntos. Le
281
+
282
+ 00:06:19.170 --> 00:06:24.430
283
+ voy a poner «Hallazgos». Voy a cerrar. Voy a abrir de nuevo
284
+
285
+ 00:06:24.430 --> 00:06:29.990
286
+ «Hallazgos». Voy a cerrar. Y acá, dentro de ese bloque, voy a poner
287
+
288
+ 00:06:29.990 --> 00:06:34.970
289
+ la clasificación que ya tengo. Le voy a pedir que me haga
290
+
291
+ 00:06:34.970 --> 00:06:40.850
292
+ un resumen justo como lo que queremos. Entonces, por acá tengo mi prompt
293
+
294
+ 00:06:40.850 --> 00:06:44.410
295
+ y es: Escribe un resumen de cien palabras enfocado en las soluciones
296
+
297
+ 00:06:44.410 --> 00:06:48.710
298
+ más viables. Y le doy a Enviar. De nuevo el modelo va a
299
+
300
+ 00:06:48.710 --> 00:06:51.810
301
+ ponerse a pensar y nos va a dar el resultado. En este
302
+
303
+ 00:06:51.810 --> 00:06:55.310
304
+ caso, vemos que está creando el resumen, que lo debe hacer en español.
305
+
306
+ 00:06:55.310 --> 00:06:59.310
307
+ Tuvo dos pasos que tuvo que pensar para llegar acá, y acá
308
+
309
+ 00:06:59.310 --> 00:07:03.430
310
+ me dice: Las soluciones más viables combinan dirección clara y ejecución rigurosa. Primero,
311
+
312
+ 00:07:03.430 --> 00:07:06.330
313
+ fijar objetivos y metas medibles por sector ligados a hitos anuales y
314
+
315
+ 00:07:06.330 --> 00:07:12.330
316
+ presupuestos. Segundo, crear una coordinación interdepartamental fuerte con mandato en resiliencia y rutas
317
+
318
+ 00:07:12.330 --> 00:07:18.130
319
+ de decisiones rápidas. Tercero, mainstreaming de la adaptación en planifi-- en planificación,
320
+
321
+ 00:07:18.130 --> 00:07:23.490
322
+ spend review, regulación, etc., etc., etc. Me da un cuarto punto y con
323
+
324
+ 00:07:23.490 --> 00:07:27.970
325
+ eso termina. Lo importante de este proceso es que llegamos a un
326
+
327
+ 00:07:27.970 --> 00:07:31.400
328
+ resumen. Llegamos a un resumen de cien palabras. ¿Lo pudimos haber hecho en
329
+
330
+ 00:07:31.400 --> 00:07:36.990
331
+ un solo chat? Sí. ¿Cuál es el problema? Que estamos subiendo tres
332
+
333
+ 00:07:36.990 --> 00:07:40.250
334
+ archivos, que la ventana de contexto va a ir creciendo, que eso puede
335
+
336
+ 00:07:40.250 --> 00:07:44.710
337
+ inducir a más errores, alucinaciones o que se le olvide instrucciones. Y,
338
+
339
+ 00:07:44.710 --> 00:07:49.250
340
+ en este caso, como hicimos cada uno de los prompts, incluso podemos detallar
341
+
342
+ 00:07:49.250 --> 00:07:53.770
343
+ cada una de esas, esas estaciones para que el resultado sea lo
344
+
345
+ 00:07:53.770 --> 00:07:57.730
346
+ más óptimo posible para seguir a la siguiente estación y llegar a un
347
+
348
+ 00:07:57.730 --> 00:08:02.550
349
+ resultado aún más preciso de lo que buscamos. En prompt chaining lo
350
+
351
+ 00:08:02.550 --> 00:08:06.450
352
+ bueno es que cada paso literalmente es un prompt que podemos iterar hasta
353
+
354
+ 00:08:06.450 --> 00:08:10.070
355
+ que lleguemos al prompt exacto y optimizar cada uno de esos pasos
356
+
357
+ 00:08:10.070 --> 00:08:13.930
358
+ para asegurar siempre que vamos a sacar la misma calidad de coche al
359
+
360
+ 00:08:13.930 --> 00:08:15.410
361
+ final de la línea de producción.
362
+
prompt-engineering/16-Creación de agentes personalizados con IA para empresas.sub.vtt ADDED
@@ -0,0 +1,806 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ WEBVTT
2
+
3
+ 00:00:00.660 --> 00:00:04.280
4
+ Hasta el momento has aprendido varias técnicas de prompting que te permiten solucionar
5
+
6
+ 00:00:04.280 --> 00:00:08.220
7
+ diferentes tipos de problemas. Quiero que paremos un segundo para ver un
8
+
9
+ 00:00:08.220 --> 00:00:13.040
10
+ par de herramientas que tenemos disponibles cuando trabajamos con Claude, ChatGPT, Gemini o
11
+
12
+ 00:00:13.040 --> 00:00:17.980
13
+ Microsoft Copilot. Estas herramientas te van a permitir controlar otras cosas dentro
14
+
15
+ 00:00:17.980 --> 00:00:22.060
16
+ de cómo la inteligencia artificial lee tus prompts y los ejecuta, pero también
17
+
18
+ 00:00:22.060 --> 00:00:25.580
19
+ te va a dar un superpoder más, y es escalar estos prompts
20
+
21
+ 00:00:25.580 --> 00:00:29.240
22
+ a procesos que puedes automatizar dentro de tu empresa. Vamos a empezar con
23
+
24
+ 00:00:29.240 --> 00:00:32.439
25
+ Microsoft Copilot, y en especial vamos a empezar acá porque es un
26
+
27
+ 00:00:32.439 --> 00:00:38.420
28
+ poco diferente a OpenAI, a Claude y a Gemini, solo porque Microsoft Copilot
29
+
30
+ 00:00:38.420 --> 00:00:42.220
31
+ no tiene un modelo propietario de ellos. Recordemos que por detrás usan
32
+
33
+ 00:00:42.220 --> 00:00:47.430
34
+ los modelos de OpenAI, que es GPT-4 y GPT-5. Pero aun así tenemos
35
+
36
+ 00:00:47.430 --> 00:00:52.660
37
+ un playground donde podemos hacer un poco más de cosas que dentro
38
+
39
+ 00:00:52.660 --> 00:00:56.580
40
+ de las otras herramientas no vamos a tener disponibles solo porque Microsoft se
41
+
42
+ 00:00:56.580 --> 00:00:59.640
43
+ integra muy bien con toda su suite de trabajo. Voy a estarte
44
+
45
+ 00:00:59.640 --> 00:01:03.220
46
+ mostrando todas las herramientas y recuerda que abajo en los recursos tienes los
47
+
48
+ 00:01:03.220 --> 00:01:07.700
49
+ enlaces a cada una de ellas. Entonces, cuando yo mencione Microsoft Copilot,
50
+
51
+ 00:01:07.700 --> 00:01:12.180
52
+ Copilot Studio o cualquier playground, recuerda revisar en los recursos para poder acceder
53
+
54
+ 00:01:12.180 --> 00:01:16.360
55
+ a estas herramientas. Vamos a empezar con Microsoft Copilot. Cuando entramos a
56
+
57
+ 00:01:16.360 --> 00:01:20.840
58
+ Copilot, lo primero que vemos es esta Welcome y esta caja de texto
59
+
60
+ 00:01:20.840 --> 00:01:23.899
61
+ en donde ya hemos interactuado un poco durante el curso y vamos
62
+
63
+ 00:01:23.900 --> 00:01:28.780
64
+ a ver una parte que se llama Agentes. Acá vamos a aclarar algo.
65
+
66
+ 00:01:28.780 --> 00:01:33.860
67
+ Los agentes, en general en inteligencia artificial, no es exactamente lo que
68
+
69
+ 00:01:33.860 --> 00:01:37.920
70
+ vamos a ver acá. Dentro de otras herramientas, esto se puede llamar un
71
+
72
+ 00:01:37.920 --> 00:01:42.899
73
+ GPT o puede llamarse un proyecto en Claude. En Microsoft lo llamamos
74
+
75
+ 00:01:42.900 --> 00:01:47.180
76
+ agentes, no es la definición formal de agentes de inteligencia artificial. Ya vamos
77
+
78
+ 00:01:47.180 --> 00:01:51.080
79
+ a ver cómo logramos que estos agentes sí se conviertan realmente en
80
+
81
+ 00:01:51.080 --> 00:01:55.280
82
+ un agente de inteligencia artificial. Pues ya que tenemos en cuenta eso, vemos
83
+
84
+ 00:01:55.280 --> 00:01:59.760
85
+ Agentes y yo puedo explorar diferentes agentes como el researcher o el
86
+
87
+ 00:01:59.760 --> 00:02:05.440
88
+ analista, que básicamente son chats de Microsoft Copilot con un prompt que los
89
+
90
+ 00:02:05.440 --> 00:02:09.820
91
+ especializa en algo que nosotros determinamos, en este caso, en ir a
92
+
93
+ 00:02:09.820 --> 00:02:13.940
94
+ buscar contenido en internet y hacer una investigación o en hacer análisis de
95
+
96
+ 00:02:13.940 --> 00:02:19.320
97
+ datos. Y podemos ver otros más dentro de, eh, el store que
98
+
99
+ 00:02:19.320 --> 00:02:22.720
100
+ tiene de agentes, pero también podemos crear uno, que esto es lo más
101
+
102
+ 00:02:22.720 --> 00:02:28.260
103
+ importante o lo más interesante que tenemos acá, donde yo puedo describir
104
+
105
+ 00:02:28.260 --> 00:02:30.240
106
+ un poco qué es lo que quiero que haga mi agente o lo
107
+
108
+ 00:02:30.240 --> 00:02:34.240
109
+ puedo configurar tal cual. Y cuando lo voy a configurar, yo le
110
+
111
+ 00:02:34.240 --> 00:02:37.240
112
+ voy a poner un nombre, le voy a poner un-- una descripción, pero
113
+
114
+ 00:02:37.240 --> 00:02:41.260
115
+ sobre todo le voy a poner unas instrucciones. Todos los prompts que
116
+
117
+ 00:02:41.260 --> 00:02:46.290
118
+ hemos ido trabajando, esos prompts son los que yo colocaría en Instrucciones. Entonces,
119
+
120
+ 00:02:46.290 --> 00:02:53.560
121
+ yo le puedo decir: «Actúa como un analista de datos y cuestióname
122
+
123
+ 00:02:53.560 --> 00:02:59.080
124
+ los insights que te entregue». Y en el momento en que yo pongo
125
+
126
+ 00:02:59.080 --> 00:03:04.920
127
+ estas instrucciones, yo acá puedo probar este chat. Entonces, vamos acá a
128
+
129
+ 00:03:04.920 --> 00:03:13.840
130
+ decirle analista de datos y pongo «mi analista». Y acá tengo la opción
131
+
132
+ 00:03:13.840 --> 00:03:17.120
133
+ de probar este chat, donde voy a interactuar con él como si
134
+
135
+ 00:03:17.120 --> 00:03:21.460
136
+ estuviera abriendo un nuevo chat en Microsoft Copilot, pero siempre va a tener
137
+
138
+ 00:03:21.460 --> 00:03:29.260
139
+ cargado este prompt inicial. Entonces, yo le digo: «El calentamiento global está
140
+
141
+ 00:03:29.260 --> 00:03:34.740
142
+ matando el mundo». Y él me va a responder teniendo en cuenta que
143
+
144
+ 00:03:34.740 --> 00:03:37.740
145
+ debe actuar como analista de datos y me va a cuestionar el
146
+
147
+ 00:03:37.740 --> 00:03:40.650
148
+ insight que le acabo de entregar. Entonces, me dice: «Si el ave-- el
149
+
150
+ 00:03:40.650 --> 00:03:43.860
151
+ calentamiento global es una amenaza seria y creciente para el planeta, está
152
+
153
+ 00:03:43.860 --> 00:03:47.400
154
+ provocando ta, ta, ta, ta, ta. ¿Te interesa más como mitigar el problema,
155
+
156
+ 00:03:47.400 --> 00:03:50.980
157
+ el problema de etc., etc., etc.?» Si seguimos en las configuraciones, yo
158
+
159
+ 00:03:50.980 --> 00:03:56.360
160
+ además le puedo ingresar conocimiento. Es decir, yo puedo conectar mi OneDrive y
161
+
162
+ 00:03:56.360 --> 00:04:01.560
163
+ poner información de mi OneDrive o puedo cargarle la información que yo
164
+
165
+ 00:04:01.560 --> 00:04:06.740
166
+ tengo disponible acá. De hecho, teníamos el ejemplo de... del banco en donde
167
+
168
+ 00:04:06.740 --> 00:04:10.120
169
+ íbamos a crear una aplicación móvil y teníamos la ley de crediti--
170
+
171
+ 00:04:10.120 --> 00:04:13.980
172
+ la ley crediticia de México, y yo se la puedo subir. Y la
173
+
174
+ 00:04:13.980 --> 00:04:17.880
175
+ diferencia a subir esto al chat es que, en el chat, todos
176
+
177
+ 00:04:17.880 --> 00:04:20.959
178
+ los documentos que yo subo van a ser parte de su ventana de
179
+
180
+ 00:04:20.959 --> 00:04:25.860
181
+ contexto. En cambio, dentro de este knowledge que yo estoy dándole, lo
182
+
183
+ 00:04:25.860 --> 00:04:29.780
184
+ que estoy haciendo es darle una cantidad infinita de archivos que yo puedo
185
+
186
+ 00:04:29.780 --> 00:04:32.680
187
+ subir y que, al momento en el que yo le haga una
188
+
189
+ 00:04:32.680 --> 00:04:35.940
190
+ pregunta al chat, él va a tener que primero ir a consultar los
191
+
192
+ 00:04:35.940 --> 00:04:39.580
193
+ archivos, traer la información relevante, hacer la parte de la ventana de
194
+
195
+ 00:04:39.580 --> 00:04:44.200
196
+ contexto y con eso sí responder. Entonces, lo más importante de esta parte
197
+
198
+ 00:04:44.200 --> 00:04:48.000
199
+ es que yo puedo subir todos los archivos que yo quiera acá,
200
+
201
+ 00:04:48.000 --> 00:04:50.560
202
+ no van a ampliar la ventana de contexto, sino van a ser una
203
+
204
+ 00:04:50.560 --> 00:04:54.000
205
+ fuente de consulta. Luego, acá yo le puedo dar más herramientas. Puedo
206
+
207
+ 00:04:54.000 --> 00:04:57.900
208
+ decirle que sea capaz de escribir código, que sea capaz de escribir imágenes,
209
+
210
+ 00:04:57.900 --> 00:05:05.520
211
+ simplemente comprenderlo o con apagarlo, puedo quitar o, eh, agregar funcionalidades a
212
+
213
+ 00:05:05.520 --> 00:05:10.860
214
+ esa gente. Y luego, puedo darle opciones de cómo empezar un prompt cuando
215
+
216
+ 00:05:10.860 --> 00:05:14.500
217
+ esté en la ventana de inicio. Entonces, le puedo decir: «Hola» y
218
+
219
+ 00:05:14.500 --> 00:05:19.680
220
+ le voy a decir: «Saludo al chat». Y lo que va a pasar
221
+
222
+ 00:05:19.680 --> 00:05:23.060
223
+ es que aparecen estas opciones que, cuando yo le pico, me llena
224
+
225
+ 00:05:23.060 --> 00:05:27.580
226
+ el prompt inicial, y eso puede ser un paso para hacerlo más an-amigable
227
+
228
+ 00:05:27.580 --> 00:05:31.540
229
+ al momento de compartir a todos, eh, las personas de mi equipo.
230
+
231
+ 00:05:31.540 --> 00:05:35.400
232
+ Con esto ya puedes crear un agente de Microsoft Copilot, compartirlo en tu
233
+
234
+ 00:05:35.400 --> 00:05:38.430
235
+ equipo y que ese prompt que tú tenías no simplemente se quede
236
+
237
+ 00:05:38.430 --> 00:05:42.640
238
+ en un documento en Word, sino que se vuelva un chat que cualquiera
239
+
240
+ 00:05:42.640 --> 00:05:46.300
241
+ pueda usar. Pero hay una herramienta más de Microsoft, que es la
242
+
243
+ 00:05:46.300 --> 00:05:50.030
244
+ más interesante, que es Copilot Studio. Vamos a ir a ella. Recuerdan los
245
+
246
+ 00:05:50.030 --> 00:05:54.940
247
+ recursos donde está. En Copilot Studio, yo puedo entrar y puedo también
248
+
249
+ 00:05:54.940 --> 00:05:58.420
250
+ crear los agentes, lo mismo que acabamos de ver en Microsoft Copilot, y
251
+
252
+ 00:05:58.420 --> 00:06:01.240
253
+ de hecho, si lo creo allá, lo voy a ver disponible acá.
254
+
255
+ 00:06:01.240 --> 00:06:06.276
256
+ Pero lo más interesante es que yo puedo crear flujos, flujos de agente.Ahorita
257
+
258
+ 00:06:06.276 --> 00:06:12.256
259
+ te decía que estos agentes de Copilot Studio y de Microsoft Copilot
260
+
261
+ 00:06:12.256 --> 00:06:15.616
262
+ no eran la definición formal de agentes. Y la razón es porque siguen
263
+
264
+ 00:06:15.616 --> 00:06:20.056
265
+ siendo un chat que no pueden tomar acción sobre una herramienta. Con
266
+
267
+ 00:06:20.056 --> 00:06:24.536
268
+ Agent Flows de Copilot Studio, yo sí puedo crear un nuevo agente y
269
+
270
+ 00:06:24.536 --> 00:06:28.496
271
+ hacer que se conecte con las aplicaciones de Microsoft y tome acciones
272
+
273
+ 00:06:28.496 --> 00:06:32.996
274
+ concretas, como por ejemplo, cuando termine la reunión en Teams, tomo el transcript,
275
+
276
+ 00:06:32.996 --> 00:06:37.116
277
+ genero un resumen y lo envío al correo de todos los asistentes.
278
+
279
+ 00:06:37.116 --> 00:06:40.276
280
+ Eso sería un agente porque tomó acción. No tuve que ir yo a
281
+
282
+ 00:06:40.276 --> 00:06:44.336
283
+ decirle: «Mira, acá está el transcript y desde acá, eh, crea un
284
+
285
+ 00:06:44.336 --> 00:06:48.036
286
+ resumen y luego yo copiar ese resumen y enviarlo, eh, a los correos
287
+
288
+ 00:06:48.036 --> 00:06:50.196
289
+ de los asistentes». En este curso no me voy a ir a
290
+
291
+ 00:06:50.196 --> 00:06:53.136
292
+ detalle de cómo se hacen los Agent Flows, pero recuerda que tenemos un
293
+
294
+ 00:06:53.136 --> 00:06:56.836
295
+ curso de Copilot Studio en donde vemos a detalle todas las configuraciones
296
+
297
+ 00:06:56.836 --> 00:07:01.396
298
+ que puedes tener dentro de Copilot Studio y cómo las puedes implementar en
299
+
300
+ 00:07:01.396 --> 00:07:04.916
301
+ la suite de Microsoft en un ambiente empresarial. Ahora vamos a ir
302
+
303
+ 00:07:04.916 --> 00:07:08.576
304
+ a otra herramienta que se llama Google AI Studio. Este es un playground
305
+
306
+ 00:07:08.576 --> 00:07:10.956
307
+ muy parecido a lo que vamos a encontrar en OpenAI y en
308
+
309
+ 00:07:10.956 --> 00:07:17.056
310
+ Claude, que nos permite ciertas configuraciones adicionales directamente hacia el modelo. Ya no
311
+
312
+ 00:07:17.056 --> 00:07:20.816
313
+ estamos hablando de la herramienta como tal. Estas configuraciones no están en
314
+
315
+ 00:07:20.816 --> 00:07:25.556
316
+ Microsoft Copilot porque Copilot no tiene un modelo como tal. Usa GPT, que
317
+
318
+ 00:07:25.556 --> 00:07:28.676
319
+ es de OpenAI, pero en este playground sí lo vamos a ver.
320
+
321
+ 00:07:28.676 --> 00:07:32.436
322
+ Entonces nos vamos a Google AI Studio. Recuerda que en recursos encuentras los
323
+
324
+ 00:07:32.436 --> 00:07:37.515
325
+ enlaces para llegar acá. Y vas a encontrar una interfaz muy parecida
326
+
327
+ 00:07:37.516 --> 00:07:41.156
328
+ a Gemini. Empieza con una caja de texto y esa caja de texto
329
+
330
+ 00:07:41.156 --> 00:07:47.336
331
+ es poner el prompt y correrlo. Por ejemplo, eh, ¿cuál es la
332
+
333
+ 00:07:47.336 --> 00:07:54.536
334
+ capital de Estados Unidos? Y lo puedo correr con normalidad, pero quiero que
335
+
336
+ 00:07:54.536 --> 00:07:58.396
337
+ veas ciertos detalles. Lo primero es que tengo la capacidad de ponerle
338
+
339
+ 00:07:58.396 --> 00:08:03.396
340
+ un nombre a esto. Este nombre va a identificar como esta mesa de
341
+
342
+ 00:08:03.396 --> 00:08:08.116
343
+ experimentación, donde yo puedo ir haciendo pruebas y lo, lo importante acá
344
+
345
+ 00:08:08.116 --> 00:08:10.296
346
+ es que yo lo puedo guardar para recordar qué es lo que yo
347
+
348
+ 00:08:10.296 --> 00:08:16.116
349
+ estaba experimentando. Acá no se trata tanto de usar el LLM para
350
+
351
+ 00:08:16.116 --> 00:08:20.056
352
+ consultas como tal, sino para crear los prompts que yo quiero luego llevar
353
+
354
+ 00:08:20.056 --> 00:08:23.116
355
+ a un agente, luego llevar a un GPT, luego llevar a una
356
+
357
+ 00:08:23.116 --> 00:08:26.256
358
+ automatización con N8N. Voy a poner el nombre y le voy a poner
359
+
360
+ 00:08:26.256 --> 00:08:31.636
361
+ Test 1. Puedo ser descriptivo, es lo más importante para no olvidar
362
+
363
+ 00:08:31.636 --> 00:08:35.596
364
+ qué estoy haciendo, pero para este ejemplo pongámosle Test, y hay un par
365
+
366
+ 00:08:35.596 --> 00:08:40.216
367
+ de configuraciones que ya tengo disponibles. Primero, yo puedo ver acá, puedo
368
+
369
+ 00:08:40.216 --> 00:08:44.296
370
+ editar la respuesta del modelo, porque el punto es que esto hace parte
371
+
372
+ 00:08:44.296 --> 00:08:47.856
373
+ de la ventana de contexto, entonces yo quisiera poder complementar con lo
374
+
375
+ 00:08:47.856 --> 00:08:51.936
376
+ que no me dio el modelo. Luego yo puedo volver a correr la
377
+
378
+ 00:08:51.936 --> 00:08:55.496
379
+ respuesta en este logo que se ve acá que dice Rerun. Si
380
+
381
+ 00:08:55.496 --> 00:08:58.596
382
+ yo le pico, vuelve a correr el prompt y vuelve a darme una
383
+
384
+ 00:08:58.596 --> 00:09:01.296
385
+ respuesta, ya sea si es diferente o no, según el prompt que
386
+
387
+ 00:09:01.296 --> 00:09:07.796
388
+ yo ponga acá arriba. Puedo eliminar esta respuesta y entonces limpiar mi ventana
389
+
390
+ 00:09:07.796 --> 00:09:12.736
391
+ de contexto y volverla a correr, que acá lo tenemos. E incluso
392
+
393
+ 00:09:12.736 --> 00:09:17.436
394
+ puedo empezar a crear árboles. ¿A qué son esos árboles? Es: tengo un
395
+
396
+ 00:09:17.436 --> 00:09:21.396
397
+ prompt inicial, tengo una respuesta y quiero empezar a probar diferentes cosas
398
+
399
+ 00:09:21.396 --> 00:09:26.596
400
+ y poderlas comparar. Entonces, si yo hago esto, puedo ver la versión original
401
+
402
+ 00:09:26.596 --> 00:09:30.996
403
+ y puedo luego iterar acá y decir: Editar, y le voy a
404
+
405
+ 00:09:30.996 --> 00:09:40.036
406
+ decir, eh: Capital cultural de Estados Unidos. Lo guardo, lo puedo volver a
407
+
408
+ 00:09:40.036 --> 00:09:48.536
409
+ correr. Y esto que estoy corriendo ya parte desde el árbol que
410
+
411
+ 00:09:48.536 --> 00:09:51.876
412
+ yo acabo de crear. Entonces acá me dice: «Acá hay un debate sobre
413
+
414
+ 00:09:51.876 --> 00:09:55.186
415
+ si es Nueva York», etc., etc., etc., etc. Y luego me puedo
416
+
417
+ 00:09:55.186 --> 00:09:58.916
418
+ ir al historial, y en el historial puedo ver mi chat original, que
419
+
420
+ 00:09:58.916 --> 00:10:04.456
421
+ es Test 1, y que se guardó, pero también puedo ver la
422
+
423
+ 00:10:04.456 --> 00:10:08.736
424
+ rama que yo acabo de crear, como esa variación, que es donde yo
425
+
426
+ 00:10:08.736 --> 00:10:13.416
427
+ le dije lo de, eh, la capital de Nueva York. En este
428
+
429
+ 00:10:13.416 --> 00:10:15.976
430
+ caso no se cambió, lo vuelvo, lo vuelvo a cambiar y lo, y
431
+
432
+ 00:10:16.016 --> 00:10:20.696
433
+ lo guardo. Entonces lo voy a oír acá. Voy a decirle: «Capital
434
+
435
+ 00:10:20.696 --> 00:10:24.576
436
+ cultural de Estados Unidos». Se guardó el prompt, no lo tenía que editar.
437
+
438
+ 00:10:24.576 --> 00:10:28.636
439
+ Lo que no se editó fue la-- eh, eh, cuando corrí el
440
+
441
+ 00:10:28.636 --> 00:10:33.256
442
+ prompt. Entonces lo vuelvo a correr, y ahora voy a tener la respuesta
443
+
444
+ 00:10:33.256 --> 00:10:36.876
445
+ que estábamos viendo en el otro momento. Ahora veamos un par de
446
+
447
+ 00:10:36.876 --> 00:10:40.396
448
+ con-- de configuraciones más. Entonces voy a devolverme a chat, se crea un
449
+
450
+ 00:10:40.396 --> 00:10:43.896
451
+ nuevo chat, y yo acá puedo crear un chat temporal, que es
452
+
453
+ 00:10:43.896 --> 00:10:47.516
454
+ un chat que va a ignorar absolutamente todo lo que exista acerca de
455
+
456
+ 00:10:47.516 --> 00:10:50.996
457
+ mi cuenta, todo lo que ha podido, eh, obtener acerca de quién
458
+
459
+ 00:10:50.996 --> 00:10:54.415
460
+ soy yo y que va guardando en su memoria, y que incluso este
461
+
462
+ 00:10:54.415 --> 00:10:59.116
463
+ chat se va a borrar una vez yo termine esta sesión. Esta
464
+
465
+ 00:10:59.116 --> 00:11:02.556
466
+ función es muy útil para tener un ambiente aislado y poder probar algo
467
+
468
+ 00:11:02.556 --> 00:11:05.596
469
+ que no esté influenciado por ninguna de los otros experimentos que he
470
+
471
+ 00:11:05.596 --> 00:11:12.236
472
+ hecho. Y también tengo la opción de comparar modelos. Cuando yo comparo modelos,
473
+
474
+ 00:11:12.236 --> 00:11:15.915
475
+ me voy a ir a ver el detrás de cámaras. Acá yo
476
+
477
+ 00:11:15.915 --> 00:11:20.876
478
+ puedo escoger Gemini 2.5 Pro, que hablamos que es el modelo que se
479
+
480
+ 00:11:20.876 --> 00:11:25.236
481
+ da chance de pensar por más tiempo, y también puedo probar 2.5
482
+
483
+ 00:11:25.236 --> 00:11:30.036
484
+ Flash, que es el modelo que va a dar respuestas más instantáneas. Y
485
+
486
+ 00:11:30.036 --> 00:11:33.776
487
+ en este caso tengo la oportunidad de hacer las pruebas al mismo
488
+
489
+ 00:11:33.776 --> 00:11:37.356
490
+ tiempo sin tener que hacer lo que hicimos en clases pasadas de abrir
491
+
492
+ 00:11:37.356 --> 00:11:40.875
493
+ un nuevo chat y comparar si no veo las dos una al
494
+
495
+ 00:11:40.876 --> 00:11:44.156
496
+ lado de la otra y poder tener una decisión. Esto hace ese proceso
497
+
498
+ 00:11:44.156 --> 00:11:49.456
499
+ un poquito más fácil. Voy a decirle acá: ¿cuál es la capital
500
+
501
+ 00:11:49.456 --> 00:11:56.156
502
+ de Estados Unidos? Voy a correrlo y me va a dar la respuesta.
503
+
504
+ 00:11:56.156 --> 00:12:00.436
505
+ Entonces podemos ver que uno está pensando, el otro también. Acá está
506
+
507
+ 00:12:00.436 --> 00:12:05.316
508
+ teniendo como un paso más de pensamiento. Este fue mucho más rápido porque
509
+
510
+ 00:12:05.316 --> 00:12:10.656
511
+ el flash es de...Lo más rápido que puedas responder. Y Gemini 2.5
512
+
513
+ 00:12:10.656 --> 00:12:13.896
514
+ Pro, que si se da el tiempo de pensar se demoró más tiempo.
515
+
516
+ 00:12:13.896 --> 00:12:16.716
517
+ Y de hecho puedo ver cuánto tiempo fue: ocho segundos para el
518
+
519
+ 00:12:16.716 --> 00:12:21.496
520
+ modelo rápido, trece punto cinco segundos para el modelo más lento. Y en
521
+
522
+ 00:12:21.496 --> 00:12:25.356
523
+ una de las clases estábamos hablando de que los LLMs parten las
524
+
525
+ 00:12:25.356 --> 00:12:29.256
526
+ palabras en tokens y que la ventana de contextos se mide en tokens.
527
+
528
+ 00:12:29.256 --> 00:12:32.596
529
+ Y quiero que vean esto que tenemos en el Playground. Tenemos el
530
+
531
+ 00:12:32.596 --> 00:12:36.816
532
+ conteo de tokens que estamos teniendo en cada ventana de contexto. En este
533
+
534
+ 00:12:36.816 --> 00:12:40.436
535
+ caso nosotros usamos doscientos treinta y cinco tokens en esta consulta que
536
+
537
+ 00:12:40.436 --> 00:12:46.576
538
+ acabamos de hacer. Teniendo este comparador vamos a ver la última configuración más.
539
+
540
+ 00:12:46.576 --> 00:12:52.376
541
+ A este lado nosotros podemos ver configuraciones como temperatura, la resolución que
542
+
543
+ 00:12:52.376 --> 00:12:56.396
544
+ queremos, las imágenes que se generan, si tenemos habilitado no el thinking mode.
545
+
546
+ 00:12:56.396 --> 00:12:59.176
547
+ En este caso estamos en un modelo que tiene habilitado el thinking
548
+
549
+ 00:12:59.176 --> 00:13:04.036
550
+ mode, entonces no lo podemos deshabilitar, pero sí puedo controlar por cuánto tiempo
551
+
552
+ 00:13:04.036 --> 00:13:07.696
553
+ va a pensar que es ese thinking budget. Y el thinking budget
554
+
555
+ 00:13:07.696 --> 00:13:12.016
556
+ es cuántos tokens tiene permitido usar para ir a pensar y luego volver
557
+
558
+ 00:13:12.016 --> 00:13:15.656
559
+ con la respuesta. Entre más tokens le doy, más chance tiene de
560
+
561
+ 00:13:15.656 --> 00:13:21.556
562
+ pensar, entre menos tokens, más instantánea la respuesta. Y tengo más herramientas y
563
+
564
+ 00:13:21.556 --> 00:13:25.316
565
+ más configuraciones. En la siguiente clase vamos a ver temperatura y top
566
+
567
+ 00:13:25.316 --> 00:13:29.796
568
+ P, que son dos configuraciones que controlan la creatividad del modelo. Quiero que
569
+
570
+ 00:13:29.796 --> 00:13:33.816
571
+ veas algo, así como nosotros en los agentes de Copilot Studio pudimos
572
+
573
+ 00:13:33.816 --> 00:13:38.856
574
+ ver que le podíamos dar herramientas a nuestro modelo, acá también puedo decirle
575
+
576
+ 00:13:38.856 --> 00:13:43.636
577
+ que me dé respuestas estructuradas, que ejecute código, que pueda ir a
578
+
579
+ 00:13:43.636 --> 00:13:48.316
580
+ Google, hacer búsquedas y traer la información. Claramente, en el caso de Microsoft
581
+
582
+ 00:13:48.316 --> 00:13:53.055
583
+ Copilot sería Bing. Y todas las configuraciones que nos va a permitir
584
+
585
+ 00:13:53.056 --> 00:13:58.556
586
+ controlar mejor lo que nosotros estábamos haciendo en Gemini, pero ya nosotros decidiendo
587
+
588
+ 00:13:58.556 --> 00:14:02.136
589
+ qué hace el modelo. Por ejemplo, yo puedo irme solo a consultar
590
+
591
+ 00:14:02.136 --> 00:14:05.656
592
+ la base de entrenamiento del modelo y ver qué respuestas me da. O
593
+
594
+ 00:14:05.656 --> 00:14:09.436
595
+ saber que esa información no es actualizada, no es la verdad más
596
+
597
+ 00:14:09.436 --> 00:14:13.736
598
+ verdadera cuando hago una consulta y habilitar que vaya a buscar internet. Y
599
+
600
+ 00:14:13.736 --> 00:14:15.576
601
+ eso va a implicar que se va a demorar un poquito más
602
+
603
+ 00:14:15.576 --> 00:14:19.076
604
+ de tiempo, pero que el resultado va a ser mucho, mucho mejor. Ahora
605
+
606
+ 00:14:19.076 --> 00:14:22.256
607
+ quiero que nos vayamos a OpenAI y a Claude para ver cómo
608
+
609
+ 00:14:22.256 --> 00:14:26.156
610
+ se ven esas interfaces, pero básicamente vas a encontrar lo mismo. La opción
611
+
612
+ 00:14:26.156 --> 00:14:29.996
613
+ de comparar prompts, la opción de probar diferentes modelos entre el modelo
614
+
615
+ 00:14:29.996 --> 00:14:33.536
616
+ rápido y el modelo de problemas complejos, el que piensa un poquito más
617
+
618
+ 00:14:33.536 --> 00:14:38.856
619
+ de tiempo. Configuración de temperatura, top P y la posibilidad de agregar
620
+
621
+ 00:14:38.856 --> 00:14:42.056
622
+ o quitar herramientas que va a usar el LLM al momento de dar
623
+
624
+ 00:14:42.056 --> 00:14:46.556
625
+ una respuesta. Ahora vamos a irnos al Playground de OpenAI. Recuerda que
626
+
627
+ 00:14:46.556 --> 00:14:50.216
628
+ en la sección de recursos tienes el enlace para llegar más rápido. Cuando
629
+
630
+ 00:14:50.216 --> 00:14:53.696
631
+ llegues al Playground vas a encontrar una interfaz así. Acá arriba vas
632
+
633
+ 00:14:53.696 --> 00:14:57.556
634
+ a encontrar estos botones. Si encuentras el botón de dashboard quiere decir que
635
+
636
+ 00:14:57.556 --> 00:15:00.836
637
+ ya terminó la configuración de tu cuenta. Si no, va a aparecer
638
+
639
+ 00:15:00.836 --> 00:15:04.816
640
+ un botón que dice start building o comienza a construir. Le picas, llenas
641
+
642
+ 00:15:04.816 --> 00:15:08.236
643
+ la información y ya vas a poder ver el botón de dashboard.
644
+
645
+ 00:15:08.236 --> 00:15:10.936
646
+ Cuando das en el botón de dashboard, en este caso yo estoy en
647
+
648
+ 00:15:10.936 --> 00:15:13.616
649
+ una cuenta que no tiene una tarjeta de crédito. Entonces cuando le
650
+
651
+ 00:15:13.616 --> 00:15:17.856
652
+ voy a dar crear me dice: «Ey, debes agregar una tarjeta de crédito».
653
+
654
+ 00:15:17.856 --> 00:15:21.416
655
+ Y esto es importante. Es diferente si tienes una cuenta paga de
656
+
657
+ 00:15:21.416 --> 00:15:26.156
658
+ ChatGPT al Playground. En la cuenta paga de ChatGPT tú solo puedes usar
659
+
660
+ 00:15:26.156 --> 00:15:30.276
661
+ ChatGPT y te cobran tu suscripción mensual y ya está. En el
662
+
663
+ 00:15:30.276 --> 00:15:35.096
664
+ Playground te van a cobrar por tokens. Es muy poco, casi que un
665
+
666
+ 00:15:35.096 --> 00:15:38.356
667
+ dólar por cada millón de tokens que usas, pero te van a
668
+
669
+ 00:15:38.356 --> 00:15:41.996
670
+ cobrar por tokens. En este caso yo ya tengo una cuenta configurada con
671
+
672
+ 00:15:41.996 --> 00:15:45.096
673
+ un método de pago y cuando le doy crear, llego a una
674
+
675
+ 00:15:45.096 --> 00:15:48.276
676
+ interfaz muy parecida a la que vimos en Copilot Studio o la que
677
+
678
+ 00:15:48.276 --> 00:15:51.696
679
+ vimos en Gemini. Yo puedo poner un prompt inicial que va a
680
+
681
+ 00:15:51.696 --> 00:15:55.276
682
+ ser el prompt con el que el chat se va a configurar. Puedo
683
+
684
+ 00:15:55.276 --> 00:15:58.776
685
+ dar mensajes como usuario o puedo usarlo como si fuera un agente
686
+
687
+ 00:15:58.776 --> 00:16:01.985
688
+ o un GPT normal. Y en esta parte de acá tengo todas las
689
+
690
+ 00:16:01.985 --> 00:16:07.556
691
+ configuraciones que vimos en Gemini Studio. Lo importante acá es que estas
692
+
693
+ 00:16:07.556 --> 00:16:11.436
694
+ interfaces cambian mucho y lo que debes tú explorar cada vez que cambien
695
+
696
+ 00:16:11.436 --> 00:16:16.795
697
+ es dónde encuentras esas mismas configuraciones: temperatura, top P, cómo agregas o
698
+
699
+ 00:16:16.796 --> 00:16:21.176
700
+ quitas herramientas y, en el caso de modelos que tienen razonamiento, cuál es
701
+
702
+ 00:16:21.176 --> 00:16:25.296
703
+ su esfuerzo. En AI Studio teníamos un thinking budget que se daba
704
+
705
+ 00:16:25.296 --> 00:16:29.216
706
+ por tokens, pero en este caso tenemos solamente si queremos que el esfuerzo
707
+
708
+ 00:16:29.216 --> 00:16:32.956
709
+ sea mínimo, bajo, medio o alto, que sería muy parecido a lo
710
+
711
+ 00:16:32.956 --> 00:16:40.466
712
+ que nosotros veíamos cuando estábamos entrando a ChatGPT y teníamos acá automático, instantáneo,
713
+
714
+ 00:16:40.466 --> 00:16:44.656
715
+ thinking o pro. Ahora vamos a irnos a Claude. Y en Claude
716
+
717
+ 00:16:44.656 --> 00:16:48.116
718
+ hay algo en especial. Cuando yo llego acá estoy en la herramienta, no
719
+
720
+ 00:16:48.116 --> 00:16:51.936
721
+ en el modelo. La empresa detrás de esto es Anthropic y lo
722
+
723
+ 00:16:51.936 --> 00:16:56.416
724
+ que debo de hacer es entrar a anthropic.com. Recuerden, los recursos están los,
725
+
726
+ 00:16:56.416 --> 00:17:00.096
727
+ eh, los enlaces y ellos se esfuerzan porque uno siempre usa Claude,
728
+
729
+ 00:17:00.096 --> 00:17:04.236
730
+ entonces toca encontrar esto que dice API build with Claude. Le doy learn
731
+
732
+ 00:17:04.236 --> 00:17:07.816
733
+ more y luego acá le doy start building. Te va a pedir
734
+
735
+ 00:17:07.816 --> 00:17:12.336
736
+ iniciar sesión de nuevo porque son como si fueran cuentas separadas y llego
737
+
738
+ 00:17:12.336 --> 00:17:17.736
739
+ al workbench. Anthropic tiene algo en especial. Anthropic tiene un generador de
740
+
741
+ 00:17:17.736 --> 00:17:21.736
742
+ prompts que cuando le pico yo puedo generar los prompts a partir de
743
+
744
+ 00:17:21.736 --> 00:17:26.076
745
+ describir la tarea que quiero que se haga. Esto es igual como
746
+
747
+ 00:17:26.076 --> 00:17:29.756
748
+ si tú fueras a Claude o a ChatGPT y le dijeras: «Actúa como
749
+
750
+ 00:17:29.756 --> 00:17:33.476
751
+ prompt engineer. Tengo este problema, ayúdame a escribir un prompt». Y ese
752
+
753
+ 00:17:33.476 --> 00:17:39.556
754
+ es un gran tip para poder crear buenos prompts. Entonces, si me devuelvo,
755
+
756
+ 00:17:39.556 --> 00:17:42.716
757
+ le doy crear prompt y voy a enfrentarme a una interfaz muy
758
+
759
+ 00:17:42.716 --> 00:17:47.136
760
+ parecida. Acá pasa lo mismo, debes poner una tarjeta de crédito y te
761
+
762
+ 00:17:47.136 --> 00:17:50.155
763
+ van a cobrar por tokens. No vas a tener el cobro de
764
+
765
+ 00:17:50.156 --> 00:17:54.336
766
+ Claude porque son dos aplicaciones distintas, igual como lo es ChatGPT con el
767
+
768
+ 00:17:54.336 --> 00:17:57.496
769
+ Playground de OpenAI donde accedes a los modelos. Y lo mismo que
770
+
771
+ 00:17:57.496 --> 00:18:01.456
772
+ te decía en OpenAI, estas interfaces cambian mucho. Lo importante es que aprendas
773
+
774
+ 00:18:01.456 --> 00:18:05.776
775
+ a identificar dónde están las configuraciones que te interesan. En este momento,
776
+
777
+ 00:18:05.776 --> 00:18:10.616
778
+ esas configuraciones las encuentras en Tools y acá puedes ver las herramientas a
779
+
780
+ 00:18:10.616 --> 00:18:13.636
781
+ las que les puedes dar acceso. Y en esta parte donde dice
782
+
783
+ 00:18:13.636 --> 00:18:17.776
784
+ Model Settings, puedes ver los modelos que puedes usar y acá vas a
785
+
786
+ 00:18:17.776 --> 00:18:20.636
787
+ ver todas las versiones de modelos que hay entre Opus, que es
788
+
789
+ 00:18:20.636 --> 00:18:23.756
790
+ el modelo que piensa por más tiempo, y Sonnet, que es el modelo
791
+
792
+ 00:18:23.756 --> 00:18:29.776
793
+ más rápido. Temperatura, cantidad de tokens, si queremos que piense cuál es
794
+
795
+ 00:18:29.776 --> 00:18:34.216
796
+ el budget de los tokens y desde ahí correr tus prompts. Con esto
797
+
798
+ 00:18:34.216 --> 00:18:36.736
799
+ en la siguiente clase te voy a explicar qué es la temperatura
800
+
801
+ 00:18:36.736 --> 00:18:39.256
802
+ y qué es el top P, y vamos a hacer unos ejercicios en
803
+
804
+ 00:18:39.256 --> 00:18:40.976
805
+ Google AI Studio.
806
+
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Lecturas recomendadas.txt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8431203
2
+ 69
3
+ 0
4
+ 711d83c40bab4518122ae9cbfbbcb73a9cec47f4bde54ba19b8bab736b9091b5
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Qué son las bases de datos.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.7689216
2
+ 210871161
3
+ 0
4
+ ab306e883de4877ad6336714c968a420a0ca776a93c738033a75aa188d1b2968
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Qué son las bases de datos.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8429253
2
+ 16943
3
+ 0
4
+ 64309e236e42997454cb13b98215d15c61850e14847eaa65ec90d2fc3756a940
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/01-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8433287
2
+ 596542
3
+ 0
4
+ 656b48eaf6daee831b4c720dfc01f8738818291b0cd83f0d0998cb2c14b9b5b6
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Cómo funciona el formato JPG.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.7690637
2
+ 174453175
3
+ 0
4
+ 561e47b45e6f357d0bee9499103234fc22a5ff16be297fecb1e3ebff42b63377
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Cómo funciona el formato JPG.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8435264
2
+ 11612
3
+ 0
4
+ c7306cf7953399e715698ed048e403e60147078af2fcfefdf947c269aeb37f54
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Lecturas recomendadas.txt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8437212
2
+ 62
3
+ 0
4
+ c2ead92b964b9660e6576fe0ce1d96be80cb9fad4ba7c67fa458a1787fb71da8
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/02-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8439155
2
+ 594682
3
+ 0
4
+ 0dfabea89b9fa0b80a2dab2c1c4e358652f52b9f9755660747768ce3fe927a69
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/03-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8440986
2
+ 596060
3
+ 0
4
+ 99d7aa9ac3b4a53a8ba5a1d0c62e3e60816726d4bd5a867961b0fdedfee960ca
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/03-Videos contenedores codecs y protocolos.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.7692053
2
+ 264338212
3
+ 0
4
+ fb873924e477c6a1da9d77d52ba5ed6e37a99480548e918aa657d85ea51b113a
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.mp4.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.7693577
2
+ 192800425
3
+ 0
4
+ e2b83ffa4e9d32fd44088b03c347997005eac16bf71f4c83038a79f06d5da7ff
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.vtt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Cómo Funciona un zip.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8443673
2
+ 13599
3
+ 0
4
+ bf1992319359ff1aedf35b1407d4d59fd5b97f204f8df722a2561714081558df
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Resumen.html.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/04-Archivos y estructuras de datos/04-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8445706
2
+ 594855
3
+ 0
4
+ f20d987ae337e8765ea055adc762d7e2fa667497c249fa5fc6ff2f618cf096c5
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.mp4.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.769517
2
+ 465096382
3
+ 0
4
+ 4c877255a9b173f261196c8c1ed6e5385978f415a7905bec418490e618ab752d
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.vtt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Arquitectura y funcionamiento interno de Blockchain.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8447561
2
+ 23916
3
+ 0
4
+ 1f5dcb1bcc70916a8d2dae5800bb6b934888dc09ca549e9cf9482cdbab6be057
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Lecturas recomendadas.txt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Lecturas recomendadas.txt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.844919
2
+ 108
3
+ 0
4
+ 9e5516f1ea15db157cfb663ae866b5f2f17a2ed5b1d4dd88205aaa4d4b4dc8c4
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Resumen.html.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/01-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8450778
2
+ 596692
3
+ 0
4
+ 326c88dd7c1c29150f737b397723ffd70dab9481d202a73149317c6e8f98b64f
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Lecturas recomendadas.txt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Lecturas recomendadas.txt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8454006
2
+ 78
3
+ 0
4
+ ecf4bd872ab4107a404f13a979226e58ec511e04bb91712e56efae684ec2760c
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.mp4.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.769705
2
+ 334399745
3
+ 0
4
+ f6cbc6dce7a5e9618632bc712446bb4a248b85cc7ffabeffccf2fc32a8609044
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.vtt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Qué es una red neuronal.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8452423
2
+ 19758
3
+ 0
4
+ faf44f07696129fea918cd25e6aa377fc18bc18442e5e811012346330d9ff8fd
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Resumen.html.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/02-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8455565
2
+ 599921
3
+ 0
4
+ 7eb0a5914f1d396cc1ded9421420c4051c1dacbda04c9bf19d5c2d493e454a97
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.mp4.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.mp4.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762797052.7700121
2
+ 324637685
3
+ 0
4
+ cde6761ea6d2ca7627919bef1c23ea47922dbe2ed08614c5e6ee026420baaa84
5
+ lfs
6
+
7
+ 1
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.vtt.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Cómo funcionan los LLMs.vtt.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8457115
2
+ 23806
3
+ 0
4
+ 3440ab08dade686bbe22575414ffe1d8ae06be78490773a636efa48911660ea8
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Resumen.html.lock ADDED
File without changes
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/05-Introducción a Blockchain e Inteligencia Artificial/03-Resumen.html.metadata ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ 1762796718.8458638
2
+ 598279
3
+ 0
4
+ 5a3dbdeddeb69dda6adc44f0c41dbbd5cb4d28e2b133a76ba32a82cf51e201a0
5
+ regular
6
+
7
+ 0
8
+ 1
subir/.cache/huggingface/upload/fixed/Curso de Fundamentos de Ingeniería de Software/presentation.mhtml.lock ADDED
File without changes