PRE-WORKSHOP · SESIÓN 00 Fundamentos de prompt · Antes de tocar Cowork

Antes de la herramienta,
está el prompt. Antes del prompt,
está saber qué pediste.

PRESENTADO PARAEquipos de IT · Credicorp
FORMATOSesión 0 · 8 horas · 60 ejercicios
TEMAIngeniería de prompts aplicada al banco
CONTINÚA ENSesión A · Claude Cowork
Pre-workshop · Sesión 00
tesis

tesis de apertura

Este no es un curso de tips.

Es un sistema para producir resultados consistentes con IA generativa sobre el trabajo real del banco: revisar un PR de un servicio del core, redactar un RFC para una integración con un canal digital, escribir un post-mortem reproducible, priorizar tickets de soporte, evaluar vendors. La diferencia entre pedir y obtener es un problema de ingeniería, no de suerte.

credicorp · vibe coding02 / 84
Pre-workshop · Sesión 00
el problema

el problema

La brecha entre lo que pedimos y lo que necesitamos.

~21palabras · prompts fructíferos con contexto relevante
< 9palabras · lo que la mayoría de IT intenta primero

Un prompt de 8 palabras a un copiloto sobre tu microservicio de transferencias no es más rápido — es más caro. Vas a iterar 4 veces hasta llegar al output que un prompt de 21 palabras habría producido en uno.

fuente · google workspace prompting guide 202403 / 84
Pre-workshop · Sesión 00
agenda

agenda · 8 horas · 2 partes acumulativas

Una sola sesión, cuatro bloques, un sistema.

01

Anatomía del prompt

Los 5 componentes. Hora 1. Diagnóstico, variación de rol y formato.

02

Zero / one / few-shot

Cuándo agregar ejemplos. Cómo diseñarlos sin que confundan al modelo. Hora 2.

03

Razonamiento

Chain-of-thought · roles · combinación rol + CoT. Hora 3.

04

Orquestación

Chaining · chunking · meta-prompting para tareas IT recurrentes. Hora 4.

Cada bloque cierra con ejercicios sobre material real del banco: tickets, RFCs, post-mortems, decisiones build-vs-buy. El último ejercicio del día es tu prompt documentado y reutilizable.

credicorp · vibe coding04 / 84
PARTE 01 · 05

Los 5 componentes
del prompt.

Un prompt sin estructura es una apuesta. Un prompt con los 5 componentes es una instrucción. La regla aplica al chatbot que escribe tu commit message y al copiloto que diseña la arquitectura de tu microservicio.

Hora 1 · Anatomía
concepto clave

concepto clave · anatomía

Cinco piezas. Si falta una, el output sale a improvisar.

01

Rol

Quién es el modelo: expertise, perspectiva, restricciones del dominio.

02

Tarea

Qué debe hacer: verbo de acción + objeto + alcance medible.

03

Contexto

Info de fondo que el modelo no tiene: stack, audiencia, restricciones de negocio.

04

Formato

Cómo debe verse: estructura, extensión, estilo, esquema verificable.

05

Ejemplos

Muestras del output esperado o límites explícitos de lo que NO debe hacer.

Vamos a usar esta anatomía durante las próximas 8 horas. La regla simple: si tu prompt no tiene los 5, no es un prompt — es un deseo.

credicorp · vibe coding06 / 84
Hora 1 · Anatomía
ejercicio 01 / 60

ejercicio 01 · ~8 min · bloom: aplicar

Reconstruye un prompt pobre con los 5 componentes.

Si descompones cualquier necesidad en 5 piezas, escribes un prompt efectivo.

Tomas un prompt vago real del banco y lo reescribes con anatomía completa. Comparas outputs.

técnica: anatomía 5 componentes · modalidad: individual
chatgptclaudegemini
prompt base
Tarea original: «Hazme un resumen del post-mortem
del incidente de ayer en la app móvil».

Reescribe con ROL + TAREA + CONTEXTO + FORMATO
+ RESTRICCIONES para un reporte ejecutivo al
comité de operaciones del banco (15 min, sin
jerga, BLUF, acciones con dueño y fecha).
práctica · 8 min
  • Lee el prompt pobre y predice qué saldrá (30 s).
  • Reescribe versión con los 5 componentes (5 min).
  • Ejecuta ambos. Documenta 3 diferencias concretas (2 min).
criterio: extensión ±20% · estructura 3 partes · sin jerga · prompt pobre falla ≥2 criterios07 / 84
Hora 1 · Anatomía
ejercicio 02 / 60

ejercicio 02 · ~6 min · bloom: analizar

Diagnostica qué componente falta antes de mejorarlo.

Antes de arreglar un prompt necesitas saber exactamente cuál pieza falta.

Tres prompts deficientes del trabajo IT real. Identificas el componente ausente y predices qué sale mal antes de ejecutar.

técnica: diagnóstico de componentes · modalidad: individual
chatgptclaude
3 prompts deficientes
A) «Ticket de bug: login app móvil falla
   intermitente. Resuelvelo.»

B) «Eres dev senior. Haz algo útil con este
   código.»

C) «Diseña la arquitectura para soportar
   5M usuarios concurrentes.»
práctica · 6 min
  • Identifica el gap principal de cada uno (2 min).
  • Predice qué tipo de error en el output (1 min).
  • Ejecuta y verifica predicción (3 min).
respuesta · A=Contexto (sin logs, sin repro) · B=Tarea + Formato · C=Restricciones (escala, presupuesto, latencia)08 / 84
Hora 1 · Anatomía
ejercicio 03 / 60

ejercicio 03 · ~7 min · bloom: aplicar

El mismo problema visto por 3 roles produce 3 respuestas.

Tarea fija. Sólo cambia el rol. Mide cómo migran vocabulario, énfasis y argumento.

Decisión real del banco: migrar el módulo core de cuentas a una infraestructura cloud regulada.

técnica: variación de rol · modalidad: individual
chatgptclaude
prompt base
TAREA: Explica por qué deberíamos migrar el core
de cuentas a cloud regulada en los próximos 18
meses.

CONTEXTO: banco con 1.2M clientes, servidores
on-prem de 8 años, ventana de mantenimiento
domingos 02-06h, regulador exige residencia de
datos en país.

FORMATO: 150 palabras, 3 argumentos numerados.

EJECUTA con 3 roles:
  · ROL 1 · CTO
  · ROL 2 · Gerente de Cumplimiento
  · ROL 3 · CISO
criterio
  • 3 outputs con argumentos distintos por rol.
  • Vocabulario diferenciado (CTO: throughput; Cumplimiento: residencia; CISO: superficie).
  • Tabla rol|argumento|vocabulario|tono documentada.
credicorp · vibe coding09 / 84
Hora 1 · Anatomía
ejercicio 04 / 60

ejercicio 04 · ~7 min · bloom: aplicar

El formato no es cosmética. Define si el output se usa o se reescribe.

Misma base, tres formatos. Mide cuál sale usable sin tocarlo.

Datos reales: el equipo de canales digitales redujo la latencia del checkout de 800 ms a 320 ms en el Q1.

técnica: variación de formato · modalidad: individual
chatgptgemini
prompt base + 3 formatos
Base fija: SRE del equipo de canales digitales.
Resultados Q1: p95 checkout 800 ms → 320 ms tras
3 sprints (caché + connection pooling + índice
en la tabla de sesiones).

FORMATO A: Email para el VP de Tecnología
           ≤100 palabras.
FORMATO B: Tabla 5 columnas (cambio · impacto
           p95 · costo · riesgo · estado).
FORMATO C: 6 bullets mono-línea para slide de
           QBR.
criterio · ≥2 / 3 usables sin edición
  • Email ≤100 palabras, sin jerga SRE pesada.
  • Tabla con exactamente 5 columnas.
  • Bullets ≤6 y de una línea.
credicorp · vibe coding10 / 84
Hora 1 · Anatomía
ejercicio 05 / 60

ejercicio 05 · ~8 min · bloom: analizar

8 palabras vs 50 palabras: no es verbosidad, es precisión.

Misma tarea con un prompt mínimo y uno completo. Tabla con 5 criterios.

Tarea típica de IT del banco: redactar una propuesta interna para refactorizar un módulo crítico.

técnica: comparación A/B · modalidad: individual
chatgptclaude
dos versiones
MÍNIMO: «Escribe propuesta para refactorizar
         el módulo de pagos.»

COMPLETO:
  ROL: arquitecto senior, banca digital LATAM.
  TAREA: propuesta para refactorizar el módulo
         de pagos (PCI-DSS).
  CONTEXTO: monolito Java 8, 4 servicios
         dependientes, equipo de 6, ventana
         de 2 sprints.
  FORMATO: 3 párrafos · alcance · plan ·
         riesgos · sin mencionar vendors.
tabla de 5 criterios
  • Especificidad · usabilidad · tono · extensión · edición necesaria.
  • Mínimo: >5 min reescritura. Completo: <2 min edición.
credicorp · vibe coding11 / 84
Hora 1 · Anatomía
ejercicio 06 / 60

ejercicio 06 · ~8 min · bloom: aplicar

Escribe un prompt con los 5 componentes para una tarea recurrente tuya.

La transferencia a tu contexto real valida que entendiste el framework.

Elige una tarea que hagas cada semana en tu rol del banco: redactar un RFC, una PR description, el daily standup escrito, el resumen de un ADR, un changelog para release notes.

técnica: anatomía aplicada · modalidad: individual
cualquier
esquema mínimo
ROL: ____ (rol IT específico: SRE, TLM, security
     engineer, data engineer, mobile lead, etc).
TAREA: verbo + objeto + alcance medible.
CONTEXTO: ≥3 datos específicos (stack, equipo,
     restricción regulatoria, deadline).
FORMATO: verificable (palabras, secciones,
     campos JSON).
RESTRICCIONES: ≥2 explícitas (qué NO hacer).
criterio · output usable con edición mínima
  • Los 5 componentes están explícitos.
  • Contexto con ≥3 datos específicos del banco.
  • Formato verificable mecánicamente.
guarda este prompt · vas a iterarlo durante toda la sesión12 / 84
Hora 1 · Anatomía
ejercicio 07 / 60

ejercicio 07 · ~6 min · bloom: evaluar

Evalúa el prompt de tu compañero con checklist.

Evaluar trabajo de otro entrena tu criterio más rápido que evaluar el propio.

Intercambia con quien tienes al lado. Aplica un checklist verificable. Da feedback accionable, no opiniones.

técnica: peer review · modalidad: parejas
sin herramienta
checklist (✓ / ✗)
[ ] ROL específico (no «experto»).
[ ] TAREA: verbo + objeto + alcance.
[ ] CONTEXTO con ≥3 datos del banco.
[ ] FORMATO verificable.
[ ] RESTRICCIONES reales (≥2).

Para cada ✗ · escribe 1 sugerencia
específica (no «mejora el contexto»;
sí «agrega: stack actual, tamaño del
equipo y SLO objetivo»).
criterio
  • Identifica ≥1 gap real (no de estilo).
  • Sugerencias accionables sin preguntar.
  • Máx 3 sugerencias priorizadas por impacto.
credicorp · vibe coding13 / 84
Hora 1 · Anatomía
ejercicio 08 / 60

ejercicio 08 · ~6 min · bloom: crear

Reescribe tu prompt v2.0 integrando el feedback.

v2.0 no es corregir errores — es elevar con perspectiva externa.

Toma el feedback del ejercicio 7. Decide qué integrar, qué descartar y por qué.

técnica: iteración con feedback · modalidad: individual
cualquier
flujo · 6 min
1. Lee feedback. Decide qué integrar (1 min).
2. Reescribe v2.0 (3 min).
3. Ejecuta v1 y v2 contra el mismo modelo.
4. Documenta: ¿qué cambió en el output?
   ¿Justificó el esfuerzo?
criterio
  • v2 incorpora ≥1 sugerencia explícitamente.
  • Diferencia observable entre outputs.
  • Mejora verificable contra el checklist del ej. 7.
credicorp · vibe coding14 / 84
Hora 1 · Anatomía
cierre

cierre hora 1 · checklist de bolsillo

5 preguntas antes de enviar cualquier prompt.

01

¿Quién habla?

¿Definí rol con expertise, perspectiva y restricciones?

02

¿Qué pido?

¿Tarea con verbo + objeto + alcance medible?

03

¿Qué no sabe?

¿Incluí contexto que el modelo no puede inferir del prompt solo?

04

¿Cómo lo quiero?

¿Estructura, extensión, tono, formato verificable mecánicamente?

05

¿Qué no debe hacer?

¿Restricciones que previenen los errores más probables de esa tarea?

Si la respuesta a alguna pregunta es «no sé», ya tienes claro qué pieza estabas olvidando.

credicorp · vibe coding15 / 84
PARTE 02 · 16

Zero-shot,
one-shot, few-shot.

Los ejemplos son el componente más poderoso y el menos utilizado. En tareas IT del banco, un solo ejemplo bien diseñado puede ahorrarte 3 iteraciones — o introducir un sesgo silencioso que vas a descubrir en producción.

Hora 2 · Few-shot
concepto clave

concepto clave · matriz de decisión

Cuándo cada estrategia funciona y cuándo falla.

estrategiacuándo usarlaejemplo IT del bancoriesgo si omites
Zero-shotTarea simple, formato estándar.«Traduce este mensaje de error al español de usuario final.»Ninguno.
One-shotFormato no estándar, tono particular.«Escribe release note como este ejemplo del último sprint.»Formato inconsistente.
Few-shot (2–5)Clasificación, consistencia.«Clasifica tickets de soporte como estos 3 ejemplos.»Output impredecible.
Few-shot (5+)Alta variabilidad, edge cases.«Extrae entidades del log como en estos 7 casos.»Falla en casos límite.

Fuente: Google Prompt Engineering v7 + Anthropic multishot prompting. La regla de bolsillo: cuanto más vas a producir con el mismo prompt, más ejemplos te ahorran retrabajo.

credicorp · vibe coding17 / 84
Hora 2 · Few-shot
ejercicio 09 / 60

ejercicio 09 · ~5 min · bloom: aplicar

Ejecuta clasificación en zero-shot y guarda baseline.

Zero-shot funciona hasta que necesitas un formato que el modelo no adivina.

5 reseñas reales de la app móvil del banco en Google Play / App Store. Clasifica sin dar ejemplos.

técnica: zero-shot · modalidad: individual
chatgptclaude
prompt base
Clasifica estas 5 reseñas de la app móvil
del banco en POSITIVO / NEGATIVO / MIXTO.

Tabla con 3 columnas:
  Reseña | Clasificación | Confianza (alta/media/baja)

Reseñas:
1. «Ya no se cae al abrir, pero Yappy
   tarda mucho.»
2. «Excelente para hacer transferencias
   rápidas.»
3. «La biometría no funciona en mi Android 12.»
4. «Buena app pero el saldo no se actualiza
   al instante.»
5. «Imposible iniciar sesión desde ayer.»

NO uses ejemplos. Guarda el output.
criterio
  • Tabla con 3 columnas exactas.
  • ≥1 clasificación debatible identificada.
  • Documenta si la confianza varía o el modelo siempre dice «alta».
credicorp · vibe coding18 / 84
Hora 2 · Few-shot
ejercicio 10 / 60

ejercicio 10 · ~5 min · bloom: aplicar

Agrega 1 ejemplo y repite la misma tarea.

Un solo ejemplo bien diseñado comunica más que 3 párrafos de instrucción.

Misma tarea del ej. 9. Sólo agregas un ejemplo antes de las reseñas. Observas qué cambia.

técnica: one-shot · modalidad: individual
misma herramienta
agrega este ejemplo antes
EJEMPLO:
«Me encanta el diseño de la app pero la
biometría falla cada 2 semanas.»
  → MIXTO · confianza alta ·
    razón: señales contradictorias (UX vs auth).

Ahora clasifica las 5 reseñas.
Mantén formato + agrega columna «Razón».
criterio · ≥1 cambio observable
  • Columna «Razón» aparece.
  • La confianza varía entre reseñas (no todo «alta»).
  • Las reseñas ambiguas tienen justificación explícita.
credicorp · vibe coding19 / 84
Hora 2 · Few-shot
ejercicio 11 / 60

ejercicio 11 · ~5 min · bloom: analizar

Convierte impresión vaga en evidencia documentada.

Sin tabla con criterios, la comparación es «me gustó más esa». Con criterios, es decisión.

Tomas los outputs del ej. 9 y 10. Los pones lado a lado. Sacas regla de decisión aplicable a tu trabajo.

técnica: análisis comparativo · modalidad: individual
sin herramienta
tabla de comparación
Criterio        | Zero-shot | One-shot | Ganador
----------------+-----------+----------+--------
Consistencia    |           |          |
Variación conf  |           |          |
Justificación   |           |          |
Manejo ambiguos |           |          |
Formato         |           |          |
criterio · conclusión accionable
  • 5 criterios completados con observación específica.
  • ≥3 «Ganador» asignados.
  • Conclusión = regla de decisión aplicable a futuro.
credicorp · vibe coding20 / 84
Hora 2 · Few-shot
ejercicio 12 / 60

ejercicio 12 · ~8 min · bloom: aplicar

Construye few-shot con 3 ejemplos diversos.

3 ejemplos iguales valen como 1. La diversidad es lo que enseña al modelo.

Subjects de email para release notes del portal de desarrolladores. 3 variantes: urgencia, beneficio, breaking change.

técnica: few-shot con diversidad · modalidad: individual
chatgptclaude
3 ejemplos para release notes
EJ1 · URGENCIA: «Acción requerida: rota tu
       API key antes del 31 de junio»

EJ2 · BENEFICIO: «Nuevo endpoint /v2/transfers:
       30% menos latencia en p95»

EJ3 · BREAKING: «Deprecación: GET /balance →
       usa /v2/accounts/{id}/balance»

Genera 5 subjects adicionales (≤10 palabras).
Evalúa diversidad entre los 5.
criterio
  • 5 outputs cubren ≥2 de las 3 variantes.
  • Ninguno es copia directa de un ejemplo.
  • Todos ≤10 palabras y específicos (no genéricos).
credicorp · vibe coding21 / 84
Hora 2 · Few-shot
ejercicio 13 / 60

ejercicio 13 · ~7 min · bloom: analizar

Diagnostica cuándo un ejemplo confunde al modelo.

Más ejemplos no siempre es mejor. Contradictorios degradan el output.

Vas a meter un ejemplo intencionalmente mal etiquetado y observar si el modelo replica el error.

técnica: diagnóstico de ejemplos · modalidad: individual
claudechatgpt
prompt con ejemplo erróneo
Clasifica severidad de incidentes:
  P1 = caída total / pérdida de datos
  P2 = degradación severa
  P3 = degradación parcial

EJEMPLO (intencionalmente errado):
«Transacciones fallan con timeout >30s
en 40% de los intentos» → P3

Clasifica:
A) Login no carga para nadie hace 12 min
B) Latencia checkout subió de 200ms a 2s
C) Notificaciones push con 5 min de retraso
criterio · regla aprendida
  • Documentas si el modelo replicó el error o lo ignoró (ambos son válidos).
  • Tras corregir el ejemplo, output consistente.
  • Enuncias la regla: «1 ejemplo erróneo arrastra ≥X% de las clasificaciones».
credicorp · vibe coding22 / 84
Hora 2 · Few-shot
ejercicio 14 / 60

ejercicio 14 · ~6 min · bloom: evaluar

Evalúa 3 sets de ejemplos: relevancia, diversidad, formato.

Buenos ejemplos: relevantes, diversos entre sí, consistentes en formato.

Sets de ejemplos para descripciones de microservicios en el dev portal interno. Califica del 1 al 5 en 3 dimensiones.

técnica: evaluación de ejemplos · modalidad: individual
sin herramienta
3 sets a evaluar
SET A (subcategorías diversas, formato uniforme):
  - payments-service: liquidación T+0...
  - notifications-svc: push, SMS, email...
  - audit-trail-svc: WORM, retention 7y...

SET B (falsa diversidad: todos del mismo dominio):
  - payments-acquirer · payments-issuer ·
    payments-router · payments-recon · payments-fx

SET C (formatos inconsistentes):
  - mensaje libre / bullet list / JSON pegado /
    yaml plano / 1 línea + emojis.
criterio
  • A = mejor · B = falsa diversidad · C = inconsistencia.
  • Propuesta de mejora específica para el peor.
credicorp · vibe coding23 / 84
Hora 2 · Few-shot
ejercicio 15 / 60

ejercicio 15 · ~8 min · bloom: crear

Diseña un formato de ejemplo reutilizable para tu área.

Un template bien diseñado se reutiliza docenas de veces sin rediseño.

Elige una tarea IT recurrente: RFC técnico, ADR (Architecture Decision Record), post-mortem, ficha de microservicio.

técnica: template de ejemplos · modalidad: individual
cualquier
esquema del template
[CONTEXTO]  · escenario en 1-2 líneas
[INPUT]     · datos de entrada (qué se observa)
[OUTPUT]    · resultado esperado (con formato)
[VARIANTE]  · qué cambia entre instancias

Ejemplo aplicado:
[CONTEXTO] Incidente en producción.
[INPUT]    Logs + métricas + timeline.
[OUTPUT]   Post-mortem: BLUF + cronología +
           acciones con dueño y fecha.
[VARIANTE] Severidad (P1/P2/P3).

Genera 3 ejemplos con este template.
Ejecuta few-shot con un caso nuevo del
mismo tipo.
criterio
  • Template con 4 campos definidos.
  • 3 ejemplos mismo formato, variantes distintas.
  • Output del modelo respeta el patrón.
credicorp · vibe coding24 / 84
Hora 2 · Few-shot
ejercicio 16 / 60

ejercicio 16 · ~7 min · bloom: aplicar

Few-shot brilla en clasificación: los ejemplos eliminan ambigüedad.

Tickets de soporte interno del banco: BUG · FEATURE_REQUEST · PREGUNTA · QUEJA.

4 ejemplos cubriendo las 4 categorías. Luego clasificas 6 tickets nuevos. Identificas el más ambiguo.

técnica: few-shot clasificación · modalidad: individual
claudechatgpt
ejemplos + tickets a clasificar
EJEMPLOS:
  «App muestra saldo -1 al login» → BUG
  «¿Puedo invertir en CDs por la app?» → PREGUNTA
  «Quisiera filtros por categoría» → FEATURE
  «3 días sin respuesta de soporte» → QUEJA

CLASIFICA:
  T1: «Falla biometría iOS 17 desde release»
  T2: «¿Hay límite de transferencias diarias?»
  T3: «Diseño feo del nuevo dashboard»
  T4: «Quiero notificación al recibir depósito»
  T5: «Cargo duplicado en compras del 12-feb»
  T6: «La app es la peor que he usado»

Identifica el ticket más ambiguo.
criterio
  • 6 clasificaciones razonables.
  • ≥1 ticket ambiguo identificado (ej. T3 BUG vs QUEJA).
  • Demuestras que cambiar 1 ejemplo altera la clasificación ambigua.
credicorp · vibe coding25 / 84
Hora 2 · Few-shot
concepto clave

concepto clave · 3 criterios de decisión

Cómo decidir tu estrategia de ejemplos sin pensarlo.

complejidad del formato

Baja → zero
Media → one
Alta → few

«1 línea de log» = baja. «Tabla JSON con 8 campos anidados» = alta.

ambigüedad de la tarea

Clara → zero
Moderada → one
Alta → few

«Traducir error» = clara. «¿Es bug o feature request?» = moderada.

necesidad de consistencia

Uso único → zero
Pocos → one
Producción → few 3-5

Si vas a generarlo 100 veces, los ejemplos pagan.

credicorp · vibe coding26 / 84
Hora 2 · Few-shot
ejercicio 17 / 60

ejercicio 17 · ~8 min · bloom: aplicar

Consolida: 5 componentes + estrategia de ejemplos.

Anatomía + decisión sobre ejemplos = prompt profesional.

Tarea: descripción de puesto para un SRE del equipo de canales digitales del banco. La vas a publicar en LinkedIn y en el careers internal.

técnica: integración completa · modalidad: individual
cualquier
flujo · 8 min
1. Define los 5 componentes (3 min).
2. Decide estrategia con los 3 criterios (1 min).
3. Si few-shot · escribe los ejemplos (2 min).
4. Ejecuta y evalúa output (2 min).

CONTEXTO BANCO:
  - SRE para canales digitales (web + mobile).
  - 5 años exp + Kubernetes + observabilidad.
  - Equipo de 6, on-call 1 semana/mes.
  - SLO: 99.95% disponibilidad canal mobile.
criterio · output publicable
  • 5 componentes explícitos.
  • Estrategia justificada con ≥2 criterios.
  • Output con título, responsabilidades, requisitos, tono adecuado a careers.
credicorp · vibe coding27 / 84
Hora 2 · Few-shot
ejercicio 18 / 60

ejercicio 18 · ~6 min · bloom: analizar

Compara tu prompt de Hora 1 contra la versión con ejemplos.

Tu prompt del ej. 6 fue tu mejor trabajo. ¿Mejora al agregar ejemplos?

Recupera el prompt del ej. 6. Decide la estrategia. Agrega 1-3 ejemplos. Documenta la diferencia.

técnica: comparación antes / después · modalidad: individual
cualquier
decisión honesta
1. Recupera prompt del ej. 6 (1 min).
2. Decide estrategia con los 3 criterios (1 min).
3. Agrega 1-3 ejemplos si aplica (3 min).
4. Ejecuta v_anatomia y v_anatomia+ejemplos.
5. Compara y decide cuál te sirve más.
criterio
  • Versión con ejemplos más cercana a lo que necesitabas, O
  • Explicas por qué zero-shot era suficiente (válido también).
credicorp · vibe coding28 / 84
Hora 2 · Few-shot
ejercicio 19 / 60

ejercicio 19 · ~7 min · bloom: evaluar

Evalúa 3 prompts ajenos con checklist completo.

Evaluar trabajo de otros es el mejor entrenamiento para tu criterio.

Grupo de 3. Pasas tu prompt. Recibes los otros 2. Aplicas un puntaje verificable. Das feedback accionable.

técnica: peer evaluation · modalidad: grupos de 3
sin herramienta
checklist ampliado · puntaje /10
5 componentes presentes ........... 0-2
Estrategia ejemplos justificada ... 0-2
Diversidad ejemplos (si aplica) ... 0-2
Formato verificable ............... 0-2
Restricciones reales .............. 0-2

Para cada prompt: 1 fortaleza + 1 mejora.
criterio
  • Puntaje /10 con justificación por criterio.
  • Mejora accionable, no opinión.
  • Los 2 puntajes son distintos (no idénticos).
credicorp · vibe coding29 / 84
Hora 2 · Few-shot
ejercicio 20 / 60

ejercicio 20 · ~8 min · bloom: crear

Sintetiza un «gold standard» a partir de 3 prompts.

Tomar lo mejor de 3 prompts produce un resultado superior a cualquiera individual.

De los 3 prompts evaluados (incluido el tuyo), toma los elementos más fuertes de cada uno. Construye uno solo.

técnica: síntesis colaborativa · modalidad: individual
cualquier
flujo
1. Selecciona los mejores elementos de cada
   prompt y por qué (3 min).
2. Escribe el prompt combinado (3 min).
3. Ejecuta y documenta qué tomaste de cada
   fuente (2 min).
criterio
  • Toma elementos de ≥2 fuentes (no solo el tuyo).
  • Justifica las decisiones (no «era el mejor»).
  • Output superior al de cualquier prompt individual.
credicorp · vibe coding30 / 84
Hora 2 · Aplicación
ejercicio 21 / 60

ejercicio 21 · ~7 min · bloom: aplicar

Email profesional · la tarea más frecuente delegada a IA, y la más mal delegada.

Email a otro equipo del banco que te tiene bloqueado hace 5 días.

Sin pasarte de pasivo-agresivo, sin pasarte de blando. Restricciones explícitas para evitar el typical email de delegación a IA.

técnica: prompt completo aplicado · modalidad: individual
chatgptclaude
prompt completo
ROL: TLM con experiencia en banca digital.
TAREA: Email de seguimiento a la tribu de
       Identidad que te debe activar un scope
       OAuth en su gateway. Llevan 5 días sin
       respuesta. Bloquea el release del lunes.
CONTEXTO: La PR ya está mergeada del lado de
       Identidad pero falta el despliegue a
       producción. Su tech lead es nuevo.
FORMATO: ≤80 palabras · referencia + valor para
       ellos + pregunta abierta de cierre.
RESTRICCIONES: NO usar «solo quería dar
       seguimiento», «cordialmente» ni acrónimos
       sin glosar.
criterio
  • ≤80 palabras, las 3 partes presentes.
  • 1 frase de valor para el otro equipo (no sólo tu urgencia).
  • Pregunta abierta no presionante. Sin frases prohibidas.
credicorp · vibe coding31 / 84
Hora 2 · Aplicación
ejercicio 22 / 60

ejercicio 22 · ~6 min · bloom: aplicar

Resumen ejecutivo con control de longitud y estructura BLUF.

«Sé breve» no es restricción. «80-120 palabras, BLUF, 3 párrafos» sí lo es.

Update al comité de tecnología del banco sobre la migración del sistema de pagos. Datos reales y feos.

técnica: control extensión + BLUF · modalidad: individual
claudegemini
prompt completo
ROL: arquitecto senior reportando al CTO.
TAREA: Resumen BLUF de la migración del
       sistema de pagos al nuevo core.
CONTEXTO: 2 meses de retraso vs plan original,
       +15% sobre presupuesto, 2 renuncias en
       el equipo, 9 de 10 módulos al 90%
       completados, módulo de reconciliación
       sin avance.
FORMATO: 3 párrafos · 80-120 palabras en total.
       P1 = conclusión directa (BLUF).
       P2 = situación (positivo + negativo).
       P3 = próximos pasos concretos.
RESTRICCIÓN: lenguaje no-técnico (lo lee el CFO).
criterio
  • 80-120 palabras totales.
  • P1 = conclusión directa (no introducción).
  • P2 incluye positivo y negativo (no maquillado).
  • Sin jerga técnica que requiera glosario.
credicorp · vibe coding32 / 84
Hora 2 · Aplicación
ejercicio 23 / 60

ejercicio 23 · ~7 min · bloom: aplicar

Cuando el output va a ser procesado, el formato estructurado elimina limpieza manual.

Benchmark de vendors de fraud detection: tabla + JSON parseable.

Adaptable a tu industria: vendors de WAF, de KYC, de open banking, de observabilidad, etc.

técnica: output estructurado · modalidad: individual
chatgptclaude
prompt
ROL: analista de arquitectura del banco.
TAREA: Compara 5 vendors de fraud detection
       para canales digitales en LATAM.
FORMATO:
  1) Tabla: Vendor | Fortaleza | Debilidad |
     Precio | Amenaza competitiva.
  2) JSON parseable con los mismos campos
     (snake_case · sin trailing commas).

RESTRICCIÓN: usa "[dato no disponible]" si no
hay referencia pública. Columna amenaza solo
acepta {Alta, Media, Baja}.
criterio
  • Tabla 5 × 5 completa.
  • JSON sintácticamente válido (pega en jq sin errores).
  • Marca «[dato no disponible]» donde corresponde, sin inventar.
  • Amenaza solo en el enum permitido.
credicorp · vibe coding33 / 84
Hora 2 · Aplicación
ejercicio 24 / 60

ejercicio 24 · ~7 min · bloom: crear

Las restricciones no matan creatividad — la canalizan.

3 variantes de comunicación al cliente final sobre una nueva feature de la app.

Pagos por QR en la app móvil del banco. Variantes por enfoque: dolor del usuario, beneficio funcional, diferenciador competitivo.

técnica: creatividad acotada · modalidad: individual
chatgptgemini
prompt
ROL: copywriter senior, banca digital LATAM.
TAREA: 3 variantes para el banner in-app y el
       push notification de la nueva feature
       de pagos por QR.
CONTEXTO: usuarios 25-55, pagan en comercios
       que ya aceptan QR de otras billeteras.
FORMATO:
  · headline ≤8 palabras
  · subheadline ≤20 palabras
VARIANTES:
  A) dolor    B) beneficio    C) diferenciador
RESTRICCIONES: NO usar «revolucionario»,
       «disruptivo», «líder», ni «ahora más
       que nunca».
criterio
  • 3 variantes con enfoques diferenciados.
  • Headlines ≤8 / subheadlines ≤20 palabras.
  • Sin palabras prohibidas.
  • Consistencia de tono entre las 3.
credicorp · vibe coding34 / 84
Hora 2 · Aplicación
ejercicio 25 / 60

ejercicio 25 · ~6 min · bloom: analizar

Causa #1 de outputs genéricos: falta de contexto específico.

Recomendaciones de productividad que sirven para cualquier equipo no sirven para ninguno.

Vas a ejecutar un prompt vago, listar qué falta, y reescribirlo con contexto.

técnica: diagnóstico de genericidad · modalidad: individual
cualquier
prompt vago a diagnosticar
«Eres consultor de productividad. Lista 5
recomendaciones para mejorar la productividad
del equipo.»

→ Ejecuta y observa: ¿podrían aplicar a
cualquier equipo del mundo?

Lista ≥4 datos que faltan:
  - Tamaño del equipo
  - Stack y herramientas
  - SLO actuales y gap
  - Métrica de productividad relevante
  - Restricciones (regulación, on-call, etc)

Reescribe con esos datos y re-ejecuta.
criterio
  • Identifica ≥4 datos faltantes.
  • Versión mejorada produce recomendaciones NO transferibles a otro equipo.
  • ≥3 diferencias concretas entre el vago y el específico.
credicorp · vibe coding35 / 84
Hora 2 · Aplicación
ejercicio 26 / 60

ejercicio 26 · ~10 min · bloom: evaluar

Iterar no es intentar hasta que funcione — es hipótesis → prueba → ajuste.

3 iteraciones documentadas sobre tu mejor prompt del día.

Toma el ganador del día. Tres rondas: ejecutas, evalúas, formulas hipótesis, ajustas. Tabla obligatoria.

técnica: iteración documentada · modalidad: individual
cualquier
tabla obligatoria
Iter | Cambio        | Efecto observado | ¿Usable?
-----+---------------+------------------+---------
  1  |               |                  |
  2  |               |                  |
  3  |               |                  |

Reglas:
  · Los 3 cambios deben ser DIFERENTES.
  · ≥1 puede no mejorar (documentar eso vale
    igual que documentar una mejora).
criterio
  • 3 cambios distintos, no «agregar más detalle» 3 veces.
  • ≥1 mejora observable medida.
  • v3 superior al original O explicas por qué no.
credicorp · vibe coding36 / 84
Hora 2 · Aplicación
ejercicio 27 / 60

ejercicio 27 · ~7 min · bloom: crear

Prompt multi-tarea: analiza → clasifica → recomienda.

Un prompt bien estructurado resuelve 2-3 subtareas si las secuencias son claras.

Lote de feedback de usuarios de canales digitales (mezcla App Store, chat de soporte y NPS).

técnica: multi-tarea secuencial · modalidad: individual
claudechatgpt
3 subtareas
1) ANALIZA: extrae los 3 temas recurrentes
   del feedback. Cita 2 frases por tema.

2) CLASIFICA: prioriza por impacto en retención
   (Alta/Media/Baja). Justifica.

3) RECOMIENDA: para el tema #1, 1 acción
   concreta implementable en <1 sprint
   (con dueño tentativo y métrica de éxito).

FORMATO: secciones numeradas, sin párrafos
introductorios.
criterio
  • 3 secciones identificables, no mezcladas.
  • Temas extraídos del texto, no inventados.
  • Priorización con justificación visible.
  • Recomendación implementable en <1 sprint.
credicorp · vibe coding37 / 84
Hora 2 · Aplicación
ejercicio 28 / 60

ejercicio 28 · ~7 min · bloom: aplicar

Un buen prompt es portable — pero cada modelo tiene personalidad.

Misma tarea, dos herramientas, observa qué cambia.

Tu mejor prompt del día. Lo corres en ChatGPT y en Claude (o Gemini). Documentas diferencias.

técnica: portabilidad cross-model · modalidad: individual
chatgptclaudegemini
tabla comparativa
Dimensión        | H1 (ChatGPT) | H2 (Claude)
-----------------+--------------+------------
Extensión        |              |
Nivel de detalle |              |
Tono             |              |
Adherencia formato |            |
Restricciones    |              |
criterio
  • Tabla con 5 dimensiones y observación específica por celda.
  • ≥2 diferencias identificadas y nombradas.
  • Propones 1 ajuste para la herramienta que peor desempeñó.
credicorp · vibe coding38 / 84
Hora 2 · Aplicación
ejercicio 29 / 60

ejercicio 29 · ~6 min · bloom: evaluar

Sin criterios explícitos, evaluar es preferir. Con criterios, es decidir.

Rúbrica de 5 dimensiones × 3 puntos = 15 máx. Aplicas a los outputs del ej. 28.

Conviertes «me gustó más» en una decisión auditable.

técnica: evaluación con rúbrica · modalidad: individual
sin herramienta
rúbrica · 0-3 por dimensión
Precisión       (técnica + factual) ... /3
Utilidad        (¿lo usarías hoy?)  ... /3
Formato         (verificable)       ... /3
Tono            (apropiado al rol)  ... /3
Restricciones   (cumple lo prohibido) /3
                                  total /15
criterio
  • Las 5 dimensiones con justificación, no solo número.
  • Puntajes diferentes entre herramientas.
  • Veredicto identifica la dimensión de mayor diferencia.
  • Anticipa ajuste para la perdedora.
credicorp · vibe coding39 / 84
Hora 2 · Aplicación
ejercicio 30 / 60

ejercicio 30 · ~5 min · bloom: crear

Un prompt sin documentar es un prompt que olvidarás en 48 horas.

Ficha de tu mejor prompt del día. Reproducible por un compañero sin explicación oral.

Este es el último entregable de la Parte 1. Va a tu biblioteca personal.

técnica: documentación · modalidad: individual
sin herramienta
ficha · 8 campos obligatorios
NOMBRE         · descriptivo, no «mi_prompt_v3»
CASO DE USO    · qué problema real resuelve
TÉCNICA        · zero/one/few + variantes
HERRAMIENTA    · modelo + versión
VERSIÓN        · v1.0 inicial
PROMPT COMPLETO· copy-paste ready
OUTPUT ESPERADO· qué debe producir
LIMITACIONES   · cuándo NO usarlo
   CONOCIDAS     (no escribir «ninguna»)
criterio
  • 8 campos completos, no genéricos.
  • Nombre descriptivo y específico.
  • Limitaciones reales (toda técnica tiene gaps).
  • Reproducible por un tercero sin explicación oral.
credicorp · vibe coding40 / 84
Cierre Parte 1
takeaways

parte 1 · cinco cosas que ahora sabes hacer

Los takeaways de las primeras 4 horas.

01

Descomponer cualquier prompt en 5 componentes

Rol · tarea · contexto · formato · ejemplos. Sin esto, es deseo.

02

Decidir zero-shot vs few-shot con criterios

Complejidad × ambigüedad × consistencia.

03

Diseñar ejemplos que guían sin confundir

Diversos en contenido, consistentes en formato, sin contradicciones.

04

Evaluar prompts con checklist estructurado

Criterios verificables, no intuición.

05

Documentar prompts para reutilizar

Nombre + técnica + limitaciones = recuperable en 6 meses.

credicorp · vibe coding41 / 84
Cierre Parte 1
transición

a continuación · parte 2

Vamos a agregar inteligencia.

Cómo hacer que el modelo piense antes de responder — y cómo encadenar prompts cuando una sola pasada no alcanza.

parte 2 · hora 3

Chain-of-thought

Razonamiento paso a paso, auditable, verificable.

parte 2 · hora 3

Role prompting avanzado

Expertos que razonan + restricciones que acotan.

parte 2 · hora 4

Multi-paso y chaining

Dividir problemas complejos en pipelines.

parte 2 · hora 4

Meta-prompting

Prompts que generan prompts. Escalar consistencia.

credicorp · vibe coding42 / 84
Apertura Parte 2
recap

recap · parte 1

Lo que ya dominas antes de subir a razonamiento.

  • 5 componentes del prompt · rol · tarea · contexto · formato · ejemplos.
  • Zero / one / few-shot · decisión por complejidad, ambigüedad y consistencia.
  • Diseño de ejemplos · diversos en contenido, consistentes en formato.
  • Iteración documentada · hipótesis → prueba → ajuste = mejora medible.

Si todo eso ya está sólido, el siguiente nivel es cómo piensa el modelo: forzarlo a mostrar pasos, asignar un experto que razona, encadenar prompts.

credicorp · vibe coding43 / 84
PARTE 03 · 44

Razonamiento
paso a paso.

Cuando el modelo piensa antes de responder, la calidad sube un nivel. Especialmente para decisiones IT del banco que tienen 3+ variables en conflicto: build vs buy, cuándo escalar un cluster, qué proveedor de identidad elegir, cómo priorizar una cola de tickets.

Hora 3 · CoT y roles
concepto clave

concepto clave · matriz tarea → técnica

Cada técnica resuelve un tipo distinto de problema.

tipo de tareatécnicapor qué
Razonamiento lógico / cálculoChain-of-ThoughtFuerza pasos intermedios visibles y auditables.
Perspectiva de dominioRole PromptingActiva vocabulario y enfoque experto del rol.
Tarea compleja multi-facetaMulti-paso / ChainingDivide para no perder calidad en la transición.
Procesamiento doc largoChunking + SummarizeEvita pérdida por ventana de contexto.
Generación de promptsMeta-promptingEscala con consistencia automática.
credicorp · vibe coding45 / 84
Hora 3 · CoT
ejercicio 31 / 60

ejercicio 31 · ~6 min · bloom: aplicar

Resuelve un problema lógico SIN pedir razonamiento.

Sin instrucción de razonamiento, el modelo salta a la respuesta — y a veces falla.

Cálculo de costo cloud típico de planning de capacity. Vas a verificar manualmente.

técnica: baseline sin CoT · modalidad: individual
chatgptclaude
problema · ejecuta sin CoT
Planning de capacity de un nuevo microservicio
del banco. Componentes mensuales:
  · COMPUTE  = 2 × STORAGE
  · NETWORK  = COMPUTE + $500

Si STORAGE = $1,200/mes, ¿cuánto cuesta total?

Ejecuta sin pedir razonamiento. Guarda
la respuesta como baseline.
verifica manualmente
  • Storage = 1,200 · Compute = 2,400 · Network = 2,900.
  • Total = 6,500 USD/mes.
  • Documenta si el modelo acertó y si mostró pasos o solo la respuesta.
credicorp · vibe coding46 / 84
Hora 3 · CoT
ejercicio 32 / 60

ejercicio 32 · ~5 min · bloom: aplicar

Agrega «piensa paso a paso» y compara.

Cuatro palabras pueden cambiar la calidad del razonamiento completo.

Mismo problema del ej. 31. Sólo añades una instrucción de razonamiento al final.

técnica: CoT básico · modalidad: individual
misma herramienta
prompt
[mismo problema del ej. 31]

«Piensa paso a paso antes de dar la
respuesta final. Muestra cada cálculo
intermedio.»
criterio
  • Output muestra pasos intermedios visibles.
  • Respuesta correcta = 6,500.
  • Puedes señalar diferencia estructural vs el baseline (¿más confiable?).
credicorp · vibe coding47 / 84
Hora 3 · CoT
ejercicio 33 / 60

ejercicio 33 · ~7 min · bloom: aplicar

CoT genérico deja al modelo decidir los pasos. CoT estructurado los prescribe.

Decisión real de SRE: ¿aumento capacidad del cluster Kubernetes?

4 pasos prescritos. El modelo debe seguirlos en orden y producir un resultado verificable por cada paso.

técnica: CoT estructurado · modalidad: individual
claudechatgpt
prompt
Decisión: ¿aumento la capacidad del cluster
del canal mobile la próxima semana?

Datos:
  · RPS p95 actual = 3,400 (target 2,800)
  · CPU avg 78% (alerta a 80%)
  · Costo extra de 4 nodos = $1,200/mes
  · SLO de disponibilidad = 99.95%

Paso 1: Identifica variables relevantes.
Paso 2: Calcula proyección si no actúo.
Paso 3: Verifica contra restricciones SLO
        y presupuesto.
Paso 4: Recomendación final con riesgos.
criterio
  • Output sigue exactamente los 4 pasos en orden.
  • Cada paso produce resultado verificable.
  • Recomendación final consistente con el análisis.
credicorp · vibe coding48 / 84
Hora 3 · CoT
ejercicio 34 / 60

ejercicio 34 · ~7 min · bloom: analizar

En tareas complejas, prescribir los pasos supera al razonamiento libre.

Decisión: migrar el producto a la región AWS São Paulo.

Misma tarea, dos versiones de instrucción de razonamiento. Tabla obligatoria.

técnica: comparación CoT · modalidad: individual
chatgptclaude
2 versiones
Tarea fija: «Evalúa si el banco debe migrar
el módulo de canales digitales a la región
AWS São Paulo en 2026.»

A) «Piensa paso a paso.»

B) «Paso 1: Analiza tamaño del mercado /
       volumen de tráfico esperado.
   Paso 2: Identifica restricciones
       regulatorias (residencia de datos).
   Paso 3: Evalúa latencia y costo vs región
       actual.
   Paso 4: Recomienda con riesgos top-3.»
tabla · ≥3 diferencias
  • Estructura · completitud · verificabilidad.
  • Versión B es más accionable y reproducible.
credicorp · vibe coding49 / 84
Hora 3 · CoT
ejercicio 35 / 60

ejercicio 35 · ~7 min · bloom: aplicar

3+ criterios en conflicto · el razonamiento visible evita sesgos ocultos.

Elegir entre 3 vendors de WAF (Web Application Firewall) para canales digitales.

Pesos explícitos. El modelo debe calcular y mostrar el promedio ponderado por vendor.

técnica: CoT decisión multi-criterio · modalidad: individual
cualquier
criterios + pesos
Vendors: A · B · C (puedes usar Cloudflare,
Akamai, AWS WAF como referencia).

Criterios (1-5) · peso:
  · Costo TCO 3 años ............. 40%
  · Capacidad de detección ML .... 30%
  · Soporte LATAM 24/7 ........... 20%
  · Integración con nuestras APIs   10%

INSTRUCCIÓN: «Evalúa cada vendor en cada
criterio (1-5), calcula promedio ponderado
mostrando la operación, recomienda.»
criterio · razonamiento auditable
  • Scores por criterio explícitos.
  • Cálculo ponderado visible (no solo el resultado).
  • Recomendación alineada con el score más alto.
credicorp · vibe coding50 / 84
Hora 3 · CoT
ejercicio 36 / 60

ejercicio 36 · ~6 min · bloom: evaluar

Que el output sea largo no significa que el razonamiento sea válido.

Build vs buy: AML como servicio SaaS vs construirlo internamente.

Vas a pedir CoT y luego auditar cada paso. El propósito es entrenar tu radar para detectar saltos lógicos.

técnica: verificación de CoT · modalidad: individual
claudechatgpt
prompt
«¿Es más rentable contratar un vendor SaaS de
AML (anti-money laundering) a $25K/mes con
implementación de 2 meses, O construir el
módulo internamente con 4 ingenieros senior
(promedio $9K/mes c/u) en 9 meses + $40K en
infra?»

Razona paso a paso. Considera: costo año 1,
costo año 3, riesgo de calidad, regulación,
talent retention.
verifica cada paso · busca saltos lógicos
  • ¿Suma el costo de oportunidad de 4 ingenieros senior dedicados 9 meses?
  • ¿Compara TCO 3 años (no solo año 1)?
  • ¿Considera el costo de mantener un módulo regulatorio internamente?
credicorp · vibe coding51 / 84
Hora 3 · CoT
ejercicio 37 / 60

ejercicio 37 · ~8 min · bloom: crear

Diseña un CoT para una decisión real de tu equipo.

Transferir CoT a tu contexto real valida la utilidad de la técnica.

Decisiones IT típicas: ¿divido este microservicio? ¿activo este feature flag al 100%? ¿escalo o refactorizo? ¿añado caché o índice?

técnica: CoT aplicado · modalidad: individual
cualquier
esqueleto del prompt
CONTEXTO: [describe la decisión, los datos
disponibles, las restricciones del banco].

INSTRUCCIÓN: razona en 4-6 pasos prescritos.
Sugerencia de pasos:
  1. Estado actual (métricas duras).
  2. Opciones disponibles y trade-offs.
  3. Restricciones bloqueantes.
  4. Riesgo de la opción preferida.
  5. Plan de rollback si falla.
  6. Recomendación con dueño y fecha.

FORMATO: conclusión accionable al final.
criterio
  • ≥4 pasos prescritos relevantes a la tarea.
  • Output sigue pasos en orden.
  • Conclusión es accionable para tu trabajo real esta semana.
credicorp · vibe coding52 / 84
Hora 3 · CoT
ejercicio 38 / 60

ejercicio 38 · ~7 min · bloom: analizar

El ejemplo más poderoso muestra el proceso, no la respuesta.

Clasifica riesgo de release del banco (Alto/Medio/Bajo).

3 ejemplos donde cada uno muestra cómo se razonó la dimensión regulatoria, técnica y operativa antes de la clasificación final.

técnica: few-shot + CoT · modalidad: individual
chatgptclaude
ejemplo con razonamiento
EJEMPLO 1 · Release «Onboarding KYC v2»:
  - regulatorio: cambia flujo de identidad ↑
  - técnico: 3 servicios afectados, blue/green ↓
  - operativo: ventana de 2h, on-call entrenado ↓
  → Riesgo MEDIO (regulatorio domina).

Genera 2 ejemplos más siguiendo el patrón.
Luego clasifica 3 releases nuevos del backlog
del banco.
criterio
  • Modelo muestra el razonamiento por dimensión antes de la clasificación.
  • Clasificaciones consistentes con los criterios del ejemplo.
  • El patrón de razonamiento se replica en los nuevos casos.
credicorp · vibe coding53 / 84
Hora 3 · CoT
ejercicio 39 / 60

ejercicio 39 · ~5 min · bloom: evaluar

No toda tarea necesita CoT — a veces es overhead.

3 tareas simples del día a día IT. Con y sin CoT. ¿En cuáles aporta?

El objetivo es construir tu radar de cuándo NO meter chain-of-thought.

técnica: anti-patrón CoT · modalidad: individual
cualquier
3 tareas a probar
A) «Renombra estas variables siguiendo
    camelCase: total_amt, num_trx, dt_open.»

B) «Corrige sintaxis SQL:
    SELECT * FROM trx WERE id=1»

C) «Escribe tweet ≤280 chars anunciando la
    nueva feature de pagos QR.»

Ejecuta cada una CON y SIN CoT. ¿Mejora alguna?
regla a enunciar
  • Identificas que tareas mecánicas (renombrar, corregir sintaxis, redactar corto) no mejoran.
  • Enuncias regla: «CoT no agrega valor cuando la tarea no requiere razonamiento multi-paso».
credicorp · vibe coding54 / 84
Hora 3 · Roles
concepto clave

concepto clave · anatomía del rol

Tres dimensiones que diferencian «experto» de un rol útil.

01

Expertise

Dominio técnico + años + especialización concreta. No «experto en cloud» sino «arquitecto cloud con 10 años en banca regulada LATAM».

02

Perspectiva

Desde qué ángulo analiza: financiero, operativo, regulatorio, técnico, de usuario final.

03

Restricciones

Qué NO debe hacer: jerga, suposiciones, sesgos típicos del rol, palabras prohibidas.

credicorp · vibe coding55 / 84
Hora 3 · Roles
ejercicio 40 / 60

ejercicio 40 · ~6 min · bloom: aplicar

El rol no es decorativo — cambia profundidad, vocabulario y enfoque.

Tarea fija. Mismo prompt con y sin rol. Mismo modelo. Diferencias documentadas.

Tema de cabecera del banco: riesgos de meter IA en atención al cliente (chatbot, IVR, app).

técnica: role prompting básico · modalidad: individual
chatgptclaude
prompt
TAREA FIJA: «Analiza los riesgos de implementar
IA generativa en atención al cliente del banco.»

VERSIÓN 1: ejecuta SIN rol.

VERSIÓN 2: ejecuta con rol:
«Eres CISO con 12 años en banca regulada
LATAM, especializado en superficie de ataque
en canales digitales y compliance con normativa
local.»
criterio
  • Output con rol es más profundo.
  • Usa vocabulario de dominio (DLP, alucinación, jailbreak, residencia).
  • Menciona riesgos específicos del sector, no genéricos.
credicorp · vibe coding56 / 84
Hora 3 · Roles
ejercicio 41 / 60

ejercicio 41 · ~7 min · bloom: aplicar

El mismo problema visto desde 3 roles produce 3 respuestas complementarias.

Propuesta: automatizar el pipeline de despliegue a producción para el módulo de cuentas.

Mismo formato de respuesta, 3 roles del banco. Tabla obligatoria al final.

técnica: multi-rol comparativo · modalidad: individual
claudechatgpt
tarea + 3 roles
TAREA: «Evalúa la propuesta de automatizar
       el pipeline de despliegue a producción
       del módulo de cuentas con GitOps +
       progressive rollouts.»

FORMATO fijo: 3 argumentos a favor, 2 riesgos,
1 recomendación.

ROL 1: SRE Lead, 8 años plataforma cloud.
ROL 2: Engineering Manager del módulo.
ROL 3: CISO del banco.

Después · tabla: Rol | Argumentos | Riesgos
| Vocabulario propio.
criterio
  • 3 outputs diferenciados en argumentos y riesgos.
  • No repiten los mismos puntos.
  • Vocabulario propio de cada dominio.
credicorp · vibe coding57 / 84
Hora 3 · Roles
ejercicio 42 / 60

ejercicio 42 · ~6 min · bloom: analizar

Un rol vago da output genérico. Un rol contradictorio da output incoherente.

2 anti-patrones de rol que vas a aprender a oler de inmediato.

Misma tarea técnica del banco. Roles intencionalmente mal definidos.

técnica: diagnóstico de roles · modalidad: individual
cualquier
2 roles problemáticos
TAREA: «Recomienda stack tecnológico para
el nuevo backend de transferencias del banco.»

A) Rol vago:
   «Eres un experto.»

B) Rol contradictorio:
   «Eres un arquitecto conservador que ama
    siempre la última tecnología emergente
    y rechaza todo lo on-prem pero exige
    cumplir con normativa de datos local.»

Ejecuta ambos y diagnostica.
criterio · nombra el patrón
  • Rol vago → output genérico sin profundidad.
  • Rol contradictorio → output con tensión sin resolver o se inclina por una mitad ignorando la otra.
credicorp · vibe coding58 / 84
Hora 3 · Roles
ejercicio 43 / 60

ejercicio 43 · ~7 min · bloom: crear

Cuando la tarea cruza dominios, un rol compuesto produce mejor resultado.

Diseña la política de uso de IA generativa para el banco.

Tarea que cruza legal, ciberseguridad, tecnología y RH. Compara rol simple contra rol compuesto.

técnica: rol compuesto · modalidad: individual
claudechatgpt
rol simple vs compuesto
TAREA: «Redacta la política interna de uso
de IA generativa para los empleados del banco
(qué tareas sí, qué tareas no, qué datos no
pueden compartir, qué herramientas autorizadas).»

ROL SIMPLE: «abogado corporativo».

ROL COMPUESTO:
«abogado corporativo con certificación en
ciberseguridad (CISSP) Y experiencia previa
como CHRO, especializado en regulación
tecnológica en LATAM y banca regulada».

Ejecuta ambos y compara dimensiones cubiertas.
criterio
  • Rol compuesto cubre legal + seguridad + RH + regional.
  • Output más completo y práctico que el rol simple.
  • Documentas las dimensiones nuevas que aparecieron.
credicorp · vibe coding59 / 84
Hora 3 · Roles
ejercicio 44 / 60

ejercicio 44 · ~7 min · bloom: aplicar

Rol + CoT · la combinación produce calidad máxima en tareas complejas.

Experto que razona en voz alta como en una sesión con el CTO.

Decisión: migrar el core bancario a una infraestructura cloud regulada. Compara solo-rol, solo-CoT y rol+CoT.

técnica: rol + CoT combinado · modalidad: individual
cualquier
prompt combinado
ROL: «Eres consultor estratégico tipo McKinsey
con 15 años en transformación digital bancaria
en LATAM.»

TAREA: «Evalúa si el banco debe migrar el core
bancario a una nube regulada (Azure for
Banking / AWS LATAM) en los próximos 24 meses.»

INSTRUCCIÓN: «Razona paso a paso como lo harías
en una sesión con el CEO:
  1) Diagnóstico (estado actual con métricas).
  2) Opciones (lift-and-shift / re-platform /
     re-architect).
  3) Recomendación con riesgos top-3 y plan
     de mitigación.»
criterio
  • Perspectiva de consultor visible (frameworks, métricas).
  • Estructura de razonamiento visible.
  • Superior a solo-rol y solo-CoT.
credicorp · vibe coding60 / 84
Hora 3 · Roles
ejercicio 45 / 60

ejercicio 45 · ~6 min · bloom: evaluar

Evaluación objetiva reemplaza «¿cuál me gusta más?» por «¿cuál sirve mejor?».

Toma los 3 outputs del ej. 41. Aplica una rúbrica numerada.

Identifica al ganador con justificación, y la dimensión donde la diferencia importa más.

técnica: evaluación multi-rol · modalidad: individual
cualquier
rúbrica · /12 por rol
Profundidad        (1-3) ... /3
Aplicabilidad      (1-3) ... /3
Perspectiva única  (1-3) ... /3
Claridad           (1-3) ... /3
                       TOTAL /12

Pregunta · ¿cuál es más útil para presentar
al comité de tecnología esta semana?
criterio
  • Puntajes diferenciados (no idénticos).
  • Ganador identificado con justificación.
  • Reflexión sobre el valor de las perspectivas complementarias.
credicorp · vibe coding61 / 84
Hora 3 · Roles
ejercicio 46 / 60

ejercicio 46 · ~8 min · bloom: crear

Roles reutilizables eliminan el trabajo de definir expertise cada vez.

Tu biblioteca personal de 5 roles para tus tareas IT más frecuentes.

Va a ser parte del entregable final del día. Reutilizable durante todo el workshop principal.

técnica: biblioteca de roles · modalidad: individual
sin herramienta
ficha por rol · 4 campos
ROL # · TÍTULO
  Expertise: dominio + años + especialización.
  Perspectiva: desde qué ángulo analiza.
  Restricciones: 2 cosas que NO debe hacer.
  Casos de uso: 2 ejemplos de cuándo invocarlo.

Sugerencias para tu lista:
  · Code reviewer del banco
  · SRE on-call diagnosticando incidente
  · Arquitecto haciendo trade-off design doc
  · Auditor de seguridad pre-release
  · Tech writer redactando para no-IT
criterio
  • 5 roles con 4 campos cada uno.
  • Cada rol diferenciado (no variantes del mismo).
  • Roles aplicables a tareas recurrentes reales de tu semana.
credicorp · vibe coding62 / 84
Hora 3 · Roles
ejercicio 47 / 60

ejercicio 47 · ~6 min · bloom: aplicar

Sin restricciones, el experto se extiende indefinidamente.

Rol + restricciones explícitas mantienen calidad y acotan el output.

Evaluación de inversión en una plataforma de observabilidad (Datadog · Dynatrace · New Relic · alternativa open source).

técnica: rol acotado · modalidad: individual
claudechatgpt
prompt
ROL: TLM con 10 años en banca digital,
     responsable de plataforma de
     observabilidad cross-tribu.

TAREA: «Evalúa la inversión de migrar de
     una stack mixta (Grafana+Prom+Loki)
     a una plataforma de observabilidad
     comercial unificada.»

RESTRICCIONES:
  · Máximo 150 palabras.
  · No uses jerga que un Gerente General no
    entienda (no APM, no MTTR sin glosar).
  · No recomiendes sin declarar supuestos.
criterio
  • ≤150 palabras.
  • Lenguaje comprensible para perfil no-técnico.
  • Supuestos explícitos antes de la recomendación.
credicorp · vibe coding63 / 84
PARTE 04 · 64

Orquestación:
chaining, chunking,
meta-prompting.

Orquestar múltiples prompts como un pipeline de producción. Pasa cuando ya tienes claro qué pedirle al modelo en una pasada — pero tu proceso real tiene 4 pasos y necesita verificar entre cada uno.

Hora 4 · Orquestación
concepto clave

concepto clave · 4 técnicas de orquestación

Cuándo dejas de pedirle una cosa y empiezas a operar un pipeline.

chaining

Output N → Input N+1

Divides una tarea compleja en pasos con dependencia explícita.

chunking

Doc largo por partes

Procesar el doc por bloques temáticos y combinar al final.

meta-prompting

Prompts que generan prompts

Escalar consistencia cuando ejecutas la misma tarea con variantes.

self-consistency

Múltiples caminos → consenso

Ejecutas varias veces y eliges la respuesta mayoritaria.

credicorp · vibe coding65 / 84
Hora 4 · Chaining
ejercicio 48 / 60

ejercicio 48 · ~7 min · bloom: aplicar

Una tarea que falla en un prompt suele funcionar dividida en 3.

Plan de hardening del módulo de cuentas: 4 pilares → cambios por pilar → backlog por sprint.

Cada prompt toma como input el output del anterior. No reescribes desde cero.

técnica: chaining 3 pasos · modalidad: individual
chatgptclaude
cadena de 3 prompts
P1: «Define 4 pilares para hardening del
     módulo de cuentas del banco
     (sugerencias: data, performance,
     observability, security).»

P2: «Para cada pilar, genera 3 cambios
     concretos accionables en <1 sprint.»

P3: «Organiza los 12 cambios en un
     calendario de 3 sprints con dueño
     tentativo y métrica de salida.»

Ejecuta P1 → toma output → pega en P2.
Ejecuta P2 → toma output → pega en P3.
criterio
  • Cadena produce calendario completo y usable.
  • Cada prompt recibe contexto del anterior literalmente.
  • Resultado final es coherente y accionable.
credicorp · vibe coding66 / 84
Hora 4 · Chaining
ejercicio 49 / 60

ejercicio 49 · ~7 min · bloom: aplicar

Cada paso usa literalmente el output anterior — no inventa datos nuevos.

Análisis competitivo de vendors de open banking en LATAM.

Aplica a cualquier categoría: identidad, fraude, KYC, observabilidad. La regla es: cada prompt es función pura del anterior.

técnica: chaining con dependencia · modalidad: individual
misma herramienta
cadena de 3 prompts
P1: «Lista 5 vendors de open banking activos
     en LATAM con 1 fortaleza cada uno.»

P2 (usa la lista de P1): «Identifica gaps donde
     no hay competencia fuerte hoy.»

P3 (usa los gaps de P2): «Para cada gap, propón
     1 oportunidad concreta con estrategia de
     entrada de 90 días para el banco.»
criterio
  • Cada paso usa LITERALMENTE el output del anterior.
  • No inventa vendors ni gaps nuevos a mitad de la cadena.
  • Resultado final es estrategia específica basada en el análisis previo.
credicorp · vibe coding67 / 84
Hora 4 · Chaining
ejercicio 50 / 60

ejercicio 50 · ~6 min · bloom: analizar

Si el resultado final es malo, el bug está en un eslabón específico.

Cadena intencionalmente con un eslabón débil. Ubica el bug.

Análisis de un post-mortem de incidente. El eslabón P2 es deliberadamente vago. Vas a detectarlo y proponer el fix.

técnica: debugging de cadenas · modalidad: individual
cualquier
cadena con bug
P1: «Resume este post-mortem en BLUF +
     cronología + causa raíz.» (OK)

P2 (intencionalmente vago): «Genera
     recomendaciones basadas en el resumen.»

P3: «Prioriza las recomendaciones.»

Ejecuta la cadena completa.
¿Dónde se rompe? ¿Por qué P2 falla?
Propón fix.
criterio
  • Identificas P2 como eslabón débil (falta contexto: ¿recomendaciones de qué tipo? ¿a quién? ¿en qué horizonte?).
  • Fix: agregar criterios y restricciones a P2.
  • Re-ejecutas la cadena con el fix y demuestras la mejora.
credicorp · vibe coding68 / 84
Hora 4 · Chaining
ejercicio 51 / 60

ejercicio 51 · ~8 min · bloom: crear

La cadena más útil es la que mapea un proceso real que ya haces.

Elige un proceso IT del banco de 4 pasos. Lo modelas como cadena de prompts.

Sugerencias: incidente (triage → diagnóstico → fix → post-mortem). Release (design → review → deploy → monitor). Decisión técnica (research → análisis → propuesta → presentación).

técnica: cadena personalizada · modalidad: individual
cualquier
esqueleto
1. Mapea tu proceso en 4 pasos (2 min).
2. Escribe 1 prompt por paso con formato de
   output que alimente el siguiente (4 min).
3. Ejecuta la cadena completa con un caso real.
4. Documenta dónde tuviste que intervenir manualmente.
criterio
  • 4 prompts con dependencias claras.
  • Cada output es input del siguiente sin parsing manual.
  • Resultado final es un entregable usable de tu trabajo real.
credicorp · vibe coding69 / 84
Hora 4 · Chaining
ejercicio 52 / 60

ejercicio 52 · ~6 min · bloom: aplicar

Un paso de QA entre prompts previene que errores se propaguen.

Borrador de RFC técnico → revisión crítica → reescritura corregida.

Aplica a: ADR, design doc, propuesta de migración, plan de capacity, política técnica.

técnica: chaining + QA · modalidad: individual
claudechatgpt
cadena con QA
P1: «Genera borrador de RFC para añadir
     login por passkey en la app móvil del
     banco (8-12 secciones estándar).»

P2 (QA): «Revisa este borrador y lista:
     - ¿qué falta?
     - ¿qué es factualmente cuestionable?
     - ¿qué sobra?
     Sin reescribirlo todavía.»

P3: «Reescribe el RFC incorporando las
     correcciones específicas de P2.»
criterio
  • P2 identifica problemas reales (no genéricos).
  • P3 los corrige específicamente (no «mejoré la calidad»).
  • Versión final superior a P1.
credicorp · vibe coding70 / 84
Hora 4 · Chaining
ejercicio 53 / 60

ejercicio 53 · ~6 min · bloom: evaluar

No toda tarea necesita chaining — a veces un buen prompt único es más eficiente.

Comunicación a usuarios del banco sobre una migración planeada del módulo de cuentas.

Honestidad ante todo: documentas si el chaining justificó el overhead o si A era suficiente.

técnica: evaluación costo / beneficio · modalidad: individual
cualquier
2 versiones
TAREA: «Genera comunicación in-app + push
para usuarios sobre la migración del módulo
de cuentas el sábado 02-06h. Tono empático,
acción del usuario clara.»

A) Un solo prompt con todo el contexto.

B) Cadena de 3:
   P1 · perfila al usuario afectado.
   P2 · define el dolor / preocupación principal.
   P3 · escribe la comunicación con tono apropiado.

Ejecuta ambas y compara.
criterio · honesto
  • Si A es suficiente · documentas que chaining fue overhead.
  • Si B es superior · identificas en qué dimensión exacta.
  • Regla: ¿bajo qué condiciones vale la pena el costo extra?
credicorp · vibe coding71 / 84
Hora 4 · Chaining
ejercicio 54 / 60

ejercicio 54 · ~6 min · bloom: aplicar

Las cadenas avanzadas no son lineales — tienen lógica condicional.

Triage de tickets de soporte: técnico (la app no carga) vs cuenta (acceso, saldo, movimientos).

El prompt P1 clasifica y enruta. Según la clase, se ejecuta P2a o P2b.

técnica: chaining condicional · modalidad: individual
chatgptclaude
cadena con bifurcación
P1: «Analiza este ticket y clasifica:
     ¿es TÉCNICO (la app no carga / falla)
     o de CUENTA (acceso, saldo, movimiento)?»

SI técnico → P2a: «Genera respuesta con
     pasos de troubleshooting + reproducción.»

SI cuenta → P2b: «Genera respuesta empática
     con opciones de validación de identidad
     y siguiente paso.»

Ejecuta con 2 tickets reales (1 técnico, 1
de cuenta).
criterio
  • Clasificación correcta para ambos tickets.
  • Cada rama produce respuesta apropiada al tipo.
  • Sin mezcla de contenido entre ramas.
credicorp · vibe coding72 / 84
Hora 4 · Chaining
ejercicio 55 / 60

ejercicio 55 · ~7 min · bloom: crear

Abstraer una cadena exitosa en template la hace reutilizable.

Convierte tu mejor cadena (ej. 51 o 52) en template con variables.

El test definitivo: alguien más debería poder ejecutarla con un input distinto sin tu ayuda.

técnica: abstracción de cadenas · modalidad: individual
cualquier
esquema con variables
P1: [TAREA_INICIAL]
     → output con [FORMATO_FIJO].

P2: input = output P1 + [CRITERIOS_QA]
     → output corregido.

P3: input = output P2 + [AUDIENCIA_DESTINO]
     → entregable final con [FORMATO_PUBLICAR].

Documenta:
  - Variables (qué puede cambiar).
  - Dependencias (qué NO puede cambiar).
  - Caso de prueba con input distinto.
criterio
  • Variables claras en cada prompt.
  • Funciona con input diferente al original.
  • Dependencias documentadas.
  • Reutilizable por un tercero sin tu explicación.
credicorp · vibe coding73 / 84
Hora 4 · Doc largo
ejercicio 56 / 60

ejercicio 56 · ~7 min · bloom: aplicar

Documentos que exceden la ventana de contexto requieren procesamiento por partes.

Divide en 3 chunks temáticos un documento largo del banco.

Sugerencias: un RFC interno, una circular del regulador local, un post-mortem extenso, un white paper de un vendor.

técnica: chunking + síntesis · modalidad: individual
claudechatgpt
flujo
1. Divide el documento en 3 chunks temáticos
   (no por número de páginas — por tema).

2. Para cada chunk:
   «Resume en 3 bullets los puntos clave,
    sin perder cifras ni nombres propios.»

3. Combina los 3 resúmenes:
   «Combina estos 3 resúmenes en 1 resumen
    ejecutivo de 100 palabras coherente.»
criterio
  • 3 resúmenes parciales cubren el documento sin redundancia.
  • Resumen final coherente y cubre los 3 temas.
  • Cifras y nombres propios preservados (no inventados).
credicorp · vibe coding74 / 84
Hora 4 · Doc largo
ejercicio 57 / 60

ejercicio 57 · ~6 min · bloom: aplicar

No siempre necesitas resumir todo — a veces solo extraer.

Extracción focalizada sobre un texto largo: cifras, personas, fechas.

Texto fuente: un post-mortem público (status page de un proveedor cloud) o una circular del regulador.

técnica: extracción focalizada · modalidad: individual
claudechatgpt
prompt
«Del siguiente texto, extrae SOLO:

  1) Cifras numéricas con su contexto
     (latencia, costo, % impacto, duración).
  2) Nombres de personas / equipos / servicios
     mencionados, con su rol.
  3) Fechas, plazos y deadlines explícitos.

Formato: tabla por categoría.
Regla: si un dato no está en el texto,
escribe '[no mencionado]'. NO inventes.»
criterio
  • Tabla completa con datos verificables contra la fuente.
  • No inventa lo que no está.
  • Marca «[no mencionado]» cuando corresponde.
credicorp · vibe coding75 / 84
Hora 4 · Meta-prompting
ejercicio 58 / 60

ejercicio 58 · ~8 min · bloom: crear

Meta-prompt · un generador parametrizado de prompts.

Escribe un prompt que genera prompts de análisis de release del banco.

Inputs: tipo de análisis · componente del sistema · audiencia. Output: prompt completo y ejecutable.

técnica: meta-prompting · modalidad: individual
claudechatgpt
esquema del meta-prompt
«Eres un ingeniero de prompts.

INPUT del usuario:
  · tipo_análisis: {riesgo, capacity, performance,
    coste, seguridad}
  · componente: {mobile, web, core, batch, data}
  · audiencia: {CTO, CISO, comité, equipo}

OUTPUT que debes producir:
  Un prompt completo con los 5 componentes
  (rol, tarea, contexto, formato, restricciones)
  listo para copy-paste.»

Prueba con 2 inputs distintos y evalúa.
criterio
  • Meta-prompt genera prompts completos (5 componentes) para inputs diferentes.
  • Los prompts generados son ejecutables directamente sin edición.
  • 2 ejecuciones con inputs distintos producen prompts distintos pero consistentes.
credicorp · vibe coding76 / 84
Hora 4 · Meta-prompting
ejercicio 59 / 60

ejercicio 59 · ~6 min · bloom: evaluar

Un meta-prompt sólo es bueno si los prompts que genera son de calidad.

Genera 3 prompts con tu meta-prompt del ej. 58. Evalúalos.

Identifica el patrón de debilidad. Ajusta el meta-prompt para corregirlo.

técnica: QA de meta-prompts · modalidad: individual
misma herramienta
checklist por prompt generado
[ ] Los 5 componentes presentes.
[ ] Rol específico (no «experto»).
[ ] Contexto con ≥3 datos del banco.
[ ] Formato verificable.
[ ] Restricciones reales.
[ ] Ejecutable sin edición.

Cuando los 3 prompts compartan una debilidad
→ ese patrón está en el meta-prompt.
Ajusta el meta-prompt y re-genera los 3.
criterio
  • ≥2 / 3 prompts generados usables sin edición.
  • Identificas la debilidad recurrente.
  • Propones un ajuste concreto al meta-prompt para corregirla.
credicorp · vibe coding77 / 84
Hora 4 · Meta-prompting
ejercicio 60 / 60 · final

ejercicio 60 · ~8 min · bloom: aplicar · entregable final

Meta-prompting aplicado a tu caso recurrente — el último entregable del día.

El mayor ROI del meta-prompting está en tareas que generas frecuentemente con variaciones.

Identifica UNA tarea de tu rol que escribes 5+ veces al mes con pequeñas variantes. Crea el meta-prompt parametrizado. Genera 3 prompts. Documenta.

técnica: meta-prompting productivo · modalidad: individual
cualquier
candidatos típicos IT del banco
· Respuesta a P1 / postmortem por incidente.
· RFC técnico para nueva capacidad.
· PR description con contexto y trade-offs.
· Release notes para usuarios finales.
· Ficha de ADR (Architecture Decision Record).
· Plan de rollback para feature flag.
· One-pager para comité de cambio (CAB).

Flujo · 8 min:
  1. Identifica caso recurrente (1 min).
  2. Diseña meta-prompt parametrizado (4 min).
  3. Genera 3 prompts y valida (3 min).
criterio · entregable final
  • Meta-prompt reutilizable para tu tarea real.
  • 3 prompts generados son usables sin edición.
  • Ahorra tiempo vs escribir cada uno manualmente.
guardalo en tu biblioteca · vas a usarlo en la Sesión A · Cowork78 / 84
Hora 4 · Doc largo
concepto clave

concepto clave · estrategias para documentos largos

Cuatro tácticas con sus riesgos honestos.

estrategiacuándo usarriesgo
ChunkingDocumento > ventana de contexto.Perder conexiones entre chunks.
Summarize firstNecesitas visión general primero.Perder detalle importante de un párrafo clave.
Extract & querySolo necesitas datos específicos.Ignorar contexto relevante alrededor del dato.
Map-reduceAnálisis cuantitativo distribuido (n > 50 docs).Complejidad innecesaria para 3 docs cortos.

Regla de bolsillo: la táctica más simple que cubre tu caso, gana. Cuando 3 docs caben en la ventana de contexto del modelo, leerlos enteros es mejor que cualquier chunking.

credicorp · vibe coding79 / 84
Hora 4 · Meta-prompting
concepto clave

concepto clave · cuándo automatizar con meta-prompts

Frecuencia × variabilidad decide si el esfuerzo paga.

baja variabilidadalta variabilidad
Alta frecuenciaTemplate fijo reutilizable.Meta-prompt parametrizado ✓
Baja frecuenciaPrompt manual cada vez.Prompt manual con componentes explícitos.

Meta-prompting justifica la inversión sólo cuando frecuencia alta + variabilidad alta. Si la tarea es siempre igual, un template fijo basta. Si la haces una vez al trimestre, no vale la pena el overhead.

credicorp · vibe coding80 / 84
Cierre Parte 2
takeaways

parte 2 · cinco cosas que ahora sabes hacer

Los takeaways de las últimas 4 horas.

01

Activar CoT para razonamiento visible

Paso a paso = auditable y verificable. No para tareas mecánicas.

02

Diseñar roles que cambian el output

Expertise + perspectiva + restricciones. Rol compuesto para tareas que cruzan dominios.

03

Orquestar cadenas multi-paso

Output N → Input N+1 con verificación. Detección de eslabón débil.

04

Procesar documentos largos

Chunking, extracción focalizada, map-reduce. La táctica más simple que cubre gana.

05

Crear meta-prompts que escalan

Generadores parametrizados para tareas frecuentes con variabilidad.

credicorp · vibe coding81 / 84
Cierre Sesión 00
balance

balance del día · 8 horas

Qué construiste en este pre-workshop.

60ejercicios completados
5roles en tu biblioteca
1cadena 4-pasos personalizada
1meta-prompt parametrizado

Todo eso es materia prima para la Sesión A · Cowork. En Cowork vas a meter esos prompts, roles y cadenas dentro de un project persistente con knowledge files del banco — y dejarán de ser texto suelto en un chat para volverse infraestructura compartida del equipo.

credicorp · vibe coding82 / 84
Cierre Sesión 00
siguiente paso

a continuación · sesión a · claude cowork

Antes del modelo
está la herramienta.

Hoy aprendiste a operar el prompt. La Sesión A te enseña a operar la herramienta que lo aloja: Claude Cowork, projects con instrucciones y knowledge persistente, sesiones reusables, y los 5 patrones de uso sobre material real del banco.

qué cambia

De chat a project

Tu prompt deja de ser texto suelto y se vuelve infraestructura con instrucciones persistentes.

qué se conserva

Los 5 componentes

Anatomía, ejemplos, CoT, roles, cadenas — todo lo del día sigue valiendo dentro de Cowork.

qué necesitas

Cuenta + repo

Tu cuenta corporativa de Claude + el repo del workshop. Pre-requisitos al inicio de la Sesión A.

credicorp · vibe coding83 / 84
FIN · PRE-WORKSHOP · SESIÓN 00

El prompt no es cómo hablas
con el modelo.
Es cómo lo programas.

Si saliste con esa idea encarnada, las próximas 3 sesiones del workshop te van a sentir naturales. Si saliste con la duda — abre la biblioteca de prompts que armaste hoy y empieza a usarla mañana lunes.