tesis de apertura
Es un sistema para producir resultados consistentes con IA generativa sobre el trabajo real del banco: revisar un PR de un servicio del core, redactar un RFC para una integración con un canal digital, escribir un post-mortem reproducible, priorizar tickets de soporte, evaluar vendors. La diferencia entre pedir y obtener es un problema de ingeniería, no de suerte.
el problema
Un prompt de 8 palabras a un copiloto sobre tu microservicio de transferencias no es más rápido — es más caro. Vas a iterar 4 veces hasta llegar al output que un prompt de 21 palabras habría producido en uno.
agenda · 8 horas · 2 partes acumulativas
Los 5 componentes. Hora 1. Diagnóstico, variación de rol y formato.
Cuándo agregar ejemplos. Cómo diseñarlos sin que confundan al modelo. Hora 2.
Chain-of-thought · roles · combinación rol + CoT. Hora 3.
Chaining · chunking · meta-prompting para tareas IT recurrentes. Hora 4.
Cada bloque cierra con ejercicios sobre material real del banco: tickets, RFCs, post-mortems, decisiones build-vs-buy. El último ejercicio del día es tu prompt documentado y reutilizable.
Un prompt sin estructura es una apuesta. Un prompt con los 5 componentes es una instrucción. La regla aplica al chatbot que escribe tu commit message y al copiloto que diseña la arquitectura de tu microservicio.
concepto clave · anatomía
Quién es el modelo: expertise, perspectiva, restricciones del dominio.
Qué debe hacer: verbo de acción + objeto + alcance medible.
Info de fondo que el modelo no tiene: stack, audiencia, restricciones de negocio.
Cómo debe verse: estructura, extensión, estilo, esquema verificable.
Muestras del output esperado o límites explícitos de lo que NO debe hacer.
Vamos a usar esta anatomía durante las próximas 8 horas. La regla simple: si tu prompt no tiene los 5, no es un prompt — es un deseo.
ejercicio 01 · ~8 min · bloom: aplicar
Tomas un prompt vago real del banco y lo reescribes con anatomía completa. Comparas outputs.
Tarea original: «Hazme un resumen del post-mortem del incidente de ayer en la app móvil». Reescribe con ROL + TAREA + CONTEXTO + FORMATO + RESTRICCIONES para un reporte ejecutivo al comité de operaciones del banco (15 min, sin jerga, BLUF, acciones con dueño y fecha).
ejercicio 02 · ~6 min · bloom: analizar
Tres prompts deficientes del trabajo IT real. Identificas el componente ausente y predices qué sale mal antes de ejecutar.
A) «Ticket de bug: login app móvil falla intermitente. Resuelvelo.» B) «Eres dev senior. Haz algo útil con este código.» C) «Diseña la arquitectura para soportar 5M usuarios concurrentes.»
ejercicio 03 · ~7 min · bloom: aplicar
Decisión real del banco: migrar el módulo core de cuentas a una infraestructura cloud regulada.
TAREA: Explica por qué deberíamos migrar el core de cuentas a cloud regulada en los próximos 18 meses. CONTEXTO: banco con 1.2M clientes, servidores on-prem de 8 años, ventana de mantenimiento domingos 02-06h, regulador exige residencia de datos en país. FORMATO: 150 palabras, 3 argumentos numerados. EJECUTA con 3 roles: · ROL 1 · CTO · ROL 2 · Gerente de Cumplimiento · ROL 3 · CISO
ejercicio 04 · ~7 min · bloom: aplicar
Datos reales: el equipo de canales digitales redujo la latencia del checkout de 800 ms a 320 ms en el Q1.
Base fija: SRE del equipo de canales digitales.
Resultados Q1: p95 checkout 800 ms → 320 ms tras
3 sprints (caché + connection pooling + índice
en la tabla de sesiones).
FORMATO A: Email para el VP de Tecnología
≤100 palabras.
FORMATO B: Tabla 5 columnas (cambio · impacto
p95 · costo · riesgo · estado).
FORMATO C: 6 bullets mono-línea para slide de
QBR.
ejercicio 05 · ~8 min · bloom: analizar
Tarea típica de IT del banco: redactar una propuesta interna para refactorizar un módulo crítico.
MÍNIMO: «Escribe propuesta para refactorizar
el módulo de pagos.»
COMPLETO:
ROL: arquitecto senior, banca digital LATAM.
TAREA: propuesta para refactorizar el módulo
de pagos (PCI-DSS).
CONTEXTO: monolito Java 8, 4 servicios
dependientes, equipo de 6, ventana
de 2 sprints.
FORMATO: 3 párrafos · alcance · plan ·
riesgos · sin mencionar vendors.
ejercicio 06 · ~8 min · bloom: aplicar
Elige una tarea que hagas cada semana en tu rol del banco: redactar un RFC, una PR description, el daily standup escrito, el resumen de un ADR, un changelog para release notes.
ROL: ____ (rol IT específico: SRE, TLM, security
engineer, data engineer, mobile lead, etc).
TAREA: verbo + objeto + alcance medible.
CONTEXTO: ≥3 datos específicos (stack, equipo,
restricción regulatoria, deadline).
FORMATO: verificable (palabras, secciones,
campos JSON).
RESTRICCIONES: ≥2 explícitas (qué NO hacer).
ejercicio 07 · ~6 min · bloom: evaluar
Intercambia con quien tienes al lado. Aplica un checklist verificable. Da feedback accionable, no opiniones.
[ ] ROL específico (no «experto»). [ ] TAREA: verbo + objeto + alcance. [ ] CONTEXTO con ≥3 datos del banco. [ ] FORMATO verificable. [ ] RESTRICCIONES reales (≥2). Para cada ✗ · escribe 1 sugerencia específica (no «mejora el contexto»; sí «agrega: stack actual, tamaño del equipo y SLO objetivo»).
ejercicio 08 · ~6 min · bloom: crear
Toma el feedback del ejercicio 7. Decide qué integrar, qué descartar y por qué.
1. Lee feedback. Decide qué integrar (1 min). 2. Reescribe v2.0 (3 min). 3. Ejecuta v1 y v2 contra el mismo modelo. 4. Documenta: ¿qué cambió en el output? ¿Justificó el esfuerzo?
cierre hora 1 · checklist de bolsillo
¿Definí rol con expertise, perspectiva y restricciones?
¿Tarea con verbo + objeto + alcance medible?
¿Incluí contexto que el modelo no puede inferir del prompt solo?
¿Estructura, extensión, tono, formato verificable mecánicamente?
¿Restricciones que previenen los errores más probables de esa tarea?
Si la respuesta a alguna pregunta es «no sé», ya tienes claro qué pieza estabas olvidando.
Los ejemplos son el componente más poderoso y el menos utilizado. En tareas IT del banco, un solo ejemplo bien diseñado puede ahorrarte 3 iteraciones — o introducir un sesgo silencioso que vas a descubrir en producción.
concepto clave · matriz de decisión
| estrategia | cuándo usarla | ejemplo IT del banco | riesgo si omites |
|---|---|---|---|
| Zero-shot | Tarea simple, formato estándar. | «Traduce este mensaje de error al español de usuario final.» | Ninguno. |
| One-shot | Formato no estándar, tono particular. | «Escribe release note como este ejemplo del último sprint.» | Formato inconsistente. |
| Few-shot (2–5) | Clasificación, consistencia. | «Clasifica tickets de soporte como estos 3 ejemplos.» | Output impredecible. |
| Few-shot (5+) | Alta variabilidad, edge cases. | «Extrae entidades del log como en estos 7 casos.» | Falla en casos límite. |
Fuente: Google Prompt Engineering v7 + Anthropic multishot prompting. La regla de bolsillo: cuanto más vas a producir con el mismo prompt, más ejemplos te ahorran retrabajo.
ejercicio 09 · ~5 min · bloom: aplicar
5 reseñas reales de la app móvil del banco en Google Play / App Store. Clasifica sin dar ejemplos.
Clasifica estas 5 reseñas de la app móvil del banco en POSITIVO / NEGATIVO / MIXTO. Tabla con 3 columnas: Reseña | Clasificación | Confianza (alta/media/baja) Reseñas: 1. «Ya no se cae al abrir, pero Yappy tarda mucho.» 2. «Excelente para hacer transferencias rápidas.» 3. «La biometría no funciona en mi Android 12.» 4. «Buena app pero el saldo no se actualiza al instante.» 5. «Imposible iniciar sesión desde ayer.» NO uses ejemplos. Guarda el output.
ejercicio 10 · ~5 min · bloom: aplicar
Misma tarea del ej. 9. Sólo agregas un ejemplo antes de las reseñas. Observas qué cambia.
EJEMPLO:
«Me encanta el diseño de la app pero la
biometría falla cada 2 semanas.»
→ MIXTO · confianza alta ·
razón: señales contradictorias (UX vs auth).
Ahora clasifica las 5 reseñas.
Mantén formato + agrega columna «Razón».
ejercicio 11 · ~5 min · bloom: analizar
Tomas los outputs del ej. 9 y 10. Los pones lado a lado. Sacas regla de decisión aplicable a tu trabajo.
Criterio | Zero-shot | One-shot | Ganador ----------------+-----------+----------+-------- Consistencia | | | Variación conf | | | Justificación | | | Manejo ambiguos | | | Formato | | |
ejercicio 12 · ~8 min · bloom: aplicar
Subjects de email para release notes del portal de desarrolladores. 3 variantes: urgencia, beneficio, breaking change.
EJ1 · URGENCIA: «Acción requerida: rota tu
API key antes del 31 de junio»
EJ2 · BENEFICIO: «Nuevo endpoint /v2/transfers:
30% menos latencia en p95»
EJ3 · BREAKING: «Deprecación: GET /balance →
usa /v2/accounts/{id}/balance»
Genera 5 subjects adicionales (≤10 palabras).
Evalúa diversidad entre los 5.
ejercicio 13 · ~7 min · bloom: analizar
Vas a meter un ejemplo intencionalmente mal etiquetado y observar si el modelo replica el error.
Clasifica severidad de incidentes: P1 = caída total / pérdida de datos P2 = degradación severa P3 = degradación parcial EJEMPLO (intencionalmente errado): «Transacciones fallan con timeout >30s en 40% de los intentos» → P3 Clasifica: A) Login no carga para nadie hace 12 min B) Latencia checkout subió de 200ms a 2s C) Notificaciones push con 5 min de retraso
ejercicio 14 · ~6 min · bloom: evaluar
Sets de ejemplos para descripciones de microservicios en el dev portal interno. Califica del 1 al 5 en 3 dimensiones.
SET A (subcategorías diversas, formato uniforme):
- payments-service: liquidación T+0...
- notifications-svc: push, SMS, email...
- audit-trail-svc: WORM, retention 7y...
SET B (falsa diversidad: todos del mismo dominio):
- payments-acquirer · payments-issuer ·
payments-router · payments-recon · payments-fx
SET C (formatos inconsistentes):
- mensaje libre / bullet list / JSON pegado /
yaml plano / 1 línea + emojis.
ejercicio 15 · ~8 min · bloom: crear
Elige una tarea IT recurrente: RFC técnico, ADR (Architecture Decision Record), post-mortem, ficha de microservicio.
[CONTEXTO] · escenario en 1-2 líneas
[INPUT] · datos de entrada (qué se observa)
[OUTPUT] · resultado esperado (con formato)
[VARIANTE] · qué cambia entre instancias
Ejemplo aplicado:
[CONTEXTO] Incidente en producción.
[INPUT] Logs + métricas + timeline.
[OUTPUT] Post-mortem: BLUF + cronología +
acciones con dueño y fecha.
[VARIANTE] Severidad (P1/P2/P3).
Genera 3 ejemplos con este template.
Ejecuta few-shot con un caso nuevo del
mismo tipo.
ejercicio 16 · ~7 min · bloom: aplicar
4 ejemplos cubriendo las 4 categorías. Luego clasificas 6 tickets nuevos. Identificas el más ambiguo.
EJEMPLOS: «App muestra saldo -1 al login» → BUG «¿Puedo invertir en CDs por la app?» → PREGUNTA «Quisiera filtros por categoría» → FEATURE «3 días sin respuesta de soporte» → QUEJA CLASIFICA: T1: «Falla biometría iOS 17 desde release» T2: «¿Hay límite de transferencias diarias?» T3: «Diseño feo del nuevo dashboard» T4: «Quiero notificación al recibir depósito» T5: «Cargo duplicado en compras del 12-feb» T6: «La app es la peor que he usado» Identifica el ticket más ambiguo.
concepto clave · 3 criterios de decisión
«1 línea de log» = baja. «Tabla JSON con 8 campos anidados» = alta.
«Traducir error» = clara. «¿Es bug o feature request?» = moderada.
Si vas a generarlo 100 veces, los ejemplos pagan.
ejercicio 17 · ~8 min · bloom: aplicar
Tarea: descripción de puesto para un SRE del equipo de canales digitales del banco. La vas a publicar en LinkedIn y en el careers internal.
1. Define los 5 componentes (3 min). 2. Decide estrategia con los 3 criterios (1 min). 3. Si few-shot · escribe los ejemplos (2 min). 4. Ejecuta y evalúa output (2 min). CONTEXTO BANCO: - SRE para canales digitales (web + mobile). - 5 años exp + Kubernetes + observabilidad. - Equipo de 6, on-call 1 semana/mes. - SLO: 99.95% disponibilidad canal mobile.
ejercicio 18 · ~6 min · bloom: analizar
Recupera el prompt del ej. 6. Decide la estrategia. Agrega 1-3 ejemplos. Documenta la diferencia.
1. Recupera prompt del ej. 6 (1 min). 2. Decide estrategia con los 3 criterios (1 min). 3. Agrega 1-3 ejemplos si aplica (3 min). 4. Ejecuta v_anatomia y v_anatomia+ejemplos. 5. Compara y decide cuál te sirve más.
ejercicio 19 · ~7 min · bloom: evaluar
Grupo de 3. Pasas tu prompt. Recibes los otros 2. Aplicas un puntaje verificable. Das feedback accionable.
5 componentes presentes ........... 0-2 Estrategia ejemplos justificada ... 0-2 Diversidad ejemplos (si aplica) ... 0-2 Formato verificable ............... 0-2 Restricciones reales .............. 0-2 Para cada prompt: 1 fortaleza + 1 mejora.
ejercicio 20 · ~8 min · bloom: crear
De los 3 prompts evaluados (incluido el tuyo), toma los elementos más fuertes de cada uno. Construye uno solo.
1. Selecciona los mejores elementos de cada prompt y por qué (3 min). 2. Escribe el prompt combinado (3 min). 3. Ejecuta y documenta qué tomaste de cada fuente (2 min).
ejercicio 21 · ~7 min · bloom: aplicar
Sin pasarte de pasivo-agresivo, sin pasarte de blando. Restricciones explícitas para evitar el typical email de delegación a IA.
ROL: TLM con experiencia en banca digital.
TAREA: Email de seguimiento a la tribu de
Identidad que te debe activar un scope
OAuth en su gateway. Llevan 5 días sin
respuesta. Bloquea el release del lunes.
CONTEXTO: La PR ya está mergeada del lado de
Identidad pero falta el despliegue a
producción. Su tech lead es nuevo.
FORMATO: ≤80 palabras · referencia + valor para
ellos + pregunta abierta de cierre.
RESTRICCIONES: NO usar «solo quería dar
seguimiento», «cordialmente» ni acrónimos
sin glosar.
ejercicio 22 · ~6 min · bloom: aplicar
Update al comité de tecnología del banco sobre la migración del sistema de pagos. Datos reales y feos.
ROL: arquitecto senior reportando al CTO.
TAREA: Resumen BLUF de la migración del
sistema de pagos al nuevo core.
CONTEXTO: 2 meses de retraso vs plan original,
+15% sobre presupuesto, 2 renuncias en
el equipo, 9 de 10 módulos al 90%
completados, módulo de reconciliación
sin avance.
FORMATO: 3 párrafos · 80-120 palabras en total.
P1 = conclusión directa (BLUF).
P2 = situación (positivo + negativo).
P3 = próximos pasos concretos.
RESTRICCIÓN: lenguaje no-técnico (lo lee el CFO).
ejercicio 23 · ~7 min · bloom: aplicar
Adaptable a tu industria: vendors de WAF, de KYC, de open banking, de observabilidad, etc.
ROL: analista de arquitectura del banco.
TAREA: Compara 5 vendors de fraud detection
para canales digitales en LATAM.
FORMATO:
1) Tabla: Vendor | Fortaleza | Debilidad |
Precio | Amenaza competitiva.
2) JSON parseable con los mismos campos
(snake_case · sin trailing commas).
RESTRICCIÓN: usa "[dato no disponible]" si no
hay referencia pública. Columna amenaza solo
acepta {Alta, Media, Baja}.
ejercicio 24 · ~7 min · bloom: crear
Pagos por QR en la app móvil del banco. Variantes por enfoque: dolor del usuario, beneficio funcional, diferenciador competitivo.
ROL: copywriter senior, banca digital LATAM.
TAREA: 3 variantes para el banner in-app y el
push notification de la nueva feature
de pagos por QR.
CONTEXTO: usuarios 25-55, pagan en comercios
que ya aceptan QR de otras billeteras.
FORMATO:
· headline ≤8 palabras
· subheadline ≤20 palabras
VARIANTES:
A) dolor B) beneficio C) diferenciador
RESTRICCIONES: NO usar «revolucionario»,
«disruptivo», «líder», ni «ahora más
que nunca».
ejercicio 25 · ~6 min · bloom: analizar
Vas a ejecutar un prompt vago, listar qué falta, y reescribirlo con contexto.
«Eres consultor de productividad. Lista 5 recomendaciones para mejorar la productividad del equipo.» → Ejecuta y observa: ¿podrían aplicar a cualquier equipo del mundo? Lista ≥4 datos que faltan: - Tamaño del equipo - Stack y herramientas - SLO actuales y gap - Métrica de productividad relevante - Restricciones (regulación, on-call, etc) Reescribe con esos datos y re-ejecuta.
ejercicio 26 · ~10 min · bloom: evaluar
Toma el ganador del día. Tres rondas: ejecutas, evalúas, formulas hipótesis, ajustas. Tabla obligatoria.
Iter | Cambio | Efecto observado | ¿Usable?
-----+---------------+------------------+---------
1 | | |
2 | | |
3 | | |
Reglas:
· Los 3 cambios deben ser DIFERENTES.
· ≥1 puede no mejorar (documentar eso vale
igual que documentar una mejora).
ejercicio 27 · ~7 min · bloom: crear
Lote de feedback de usuarios de canales digitales (mezcla App Store, chat de soporte y NPS).
1) ANALIZA: extrae los 3 temas recurrentes del feedback. Cita 2 frases por tema. 2) CLASIFICA: prioriza por impacto en retención (Alta/Media/Baja). Justifica. 3) RECOMIENDA: para el tema #1, 1 acción concreta implementable en <1 sprint (con dueño tentativo y métrica de éxito). FORMATO: secciones numeradas, sin párrafos introductorios.
ejercicio 28 · ~7 min · bloom: aplicar
Tu mejor prompt del día. Lo corres en ChatGPT y en Claude (o Gemini). Documentas diferencias.
Dimensión | H1 (ChatGPT) | H2 (Claude) -----------------+--------------+------------ Extensión | | Nivel de detalle | | Tono | | Adherencia formato | | Restricciones | |
ejercicio 29 · ~6 min · bloom: evaluar
Conviertes «me gustó más» en una decisión auditable.
Precisión (técnica + factual) ... /3
Utilidad (¿lo usarías hoy?) ... /3
Formato (verificable) ... /3
Tono (apropiado al rol) ... /3
Restricciones (cumple lo prohibido) /3
total /15
ejercicio 30 · ~5 min · bloom: crear
Este es el último entregable de la Parte 1. Va a tu biblioteca personal.
NOMBRE · descriptivo, no «mi_prompt_v3» CASO DE USO · qué problema real resuelve TÉCNICA · zero/one/few + variantes HERRAMIENTA · modelo + versión VERSIÓN · v1.0 inicial PROMPT COMPLETO· copy-paste ready OUTPUT ESPERADO· qué debe producir LIMITACIONES · cuándo NO usarlo CONOCIDAS (no escribir «ninguna»)
parte 1 · cinco cosas que ahora sabes hacer
Rol · tarea · contexto · formato · ejemplos. Sin esto, es deseo.
Complejidad × ambigüedad × consistencia.
Diversos en contenido, consistentes en formato, sin contradicciones.
Criterios verificables, no intuición.
Nombre + técnica + limitaciones = recuperable en 6 meses.
a continuación · parte 2
Cómo hacer que el modelo piense antes de responder — y cómo encadenar prompts cuando una sola pasada no alcanza.
Razonamiento paso a paso, auditable, verificable.
Expertos que razonan + restricciones que acotan.
Dividir problemas complejos en pipelines.
Prompts que generan prompts. Escalar consistencia.
recap · parte 1
Si todo eso ya está sólido, el siguiente nivel es cómo piensa el modelo: forzarlo a mostrar pasos, asignar un experto que razona, encadenar prompts.
Cuando el modelo piensa antes de responder, la calidad sube un nivel. Especialmente para decisiones IT del banco que tienen 3+ variables en conflicto: build vs buy, cuándo escalar un cluster, qué proveedor de identidad elegir, cómo priorizar una cola de tickets.
concepto clave · matriz tarea → técnica
| tipo de tarea | técnica | por qué |
|---|---|---|
| Razonamiento lógico / cálculo | Chain-of-Thought | Fuerza pasos intermedios visibles y auditables. |
| Perspectiva de dominio | Role Prompting | Activa vocabulario y enfoque experto del rol. |
| Tarea compleja multi-faceta | Multi-paso / Chaining | Divide para no perder calidad en la transición. |
| Procesamiento doc largo | Chunking + Summarize | Evita pérdida por ventana de contexto. |
| Generación de prompts | Meta-prompting | Escala con consistencia automática. |
ejercicio 31 · ~6 min · bloom: aplicar
Cálculo de costo cloud típico de planning de capacity. Vas a verificar manualmente.
Planning de capacity de un nuevo microservicio del banco. Componentes mensuales: · COMPUTE = 2 × STORAGE · NETWORK = COMPUTE + $500 Si STORAGE = $1,200/mes, ¿cuánto cuesta total? Ejecuta sin pedir razonamiento. Guarda la respuesta como baseline.
ejercicio 32 · ~5 min · bloom: aplicar
Mismo problema del ej. 31. Sólo añades una instrucción de razonamiento al final.
[mismo problema del ej. 31] «Piensa paso a paso antes de dar la respuesta final. Muestra cada cálculo intermedio.»
ejercicio 33 · ~7 min · bloom: aplicar
4 pasos prescritos. El modelo debe seguirlos en orden y producir un resultado verificable por cada paso.
Decisión: ¿aumento la capacidad del cluster
del canal mobile la próxima semana?
Datos:
· RPS p95 actual = 3,400 (target 2,800)
· CPU avg 78% (alerta a 80%)
· Costo extra de 4 nodos = $1,200/mes
· SLO de disponibilidad = 99.95%
Paso 1: Identifica variables relevantes.
Paso 2: Calcula proyección si no actúo.
Paso 3: Verifica contra restricciones SLO
y presupuesto.
Paso 4: Recomendación final con riesgos.
ejercicio 34 · ~7 min · bloom: analizar
Misma tarea, dos versiones de instrucción de razonamiento. Tabla obligatoria.
Tarea fija: «Evalúa si el banco debe migrar
el módulo de canales digitales a la región
AWS São Paulo en 2026.»
A) «Piensa paso a paso.»
B) «Paso 1: Analiza tamaño del mercado /
volumen de tráfico esperado.
Paso 2: Identifica restricciones
regulatorias (residencia de datos).
Paso 3: Evalúa latencia y costo vs región
actual.
Paso 4: Recomienda con riesgos top-3.»
ejercicio 35 · ~7 min · bloom: aplicar
Pesos explícitos. El modelo debe calcular y mostrar el promedio ponderado por vendor.
Vendors: A · B · C (puedes usar Cloudflare, Akamai, AWS WAF como referencia). Criterios (1-5) · peso: · Costo TCO 3 años ............. 40% · Capacidad de detección ML .... 30% · Soporte LATAM 24/7 ........... 20% · Integración con nuestras APIs 10% INSTRUCCIÓN: «Evalúa cada vendor en cada criterio (1-5), calcula promedio ponderado mostrando la operación, recomienda.»
ejercicio 36 · ~6 min · bloom: evaluar
Vas a pedir CoT y luego auditar cada paso. El propósito es entrenar tu radar para detectar saltos lógicos.
«¿Es más rentable contratar un vendor SaaS de AML (anti-money laundering) a $25K/mes con implementación de 2 meses, O construir el módulo internamente con 4 ingenieros senior (promedio $9K/mes c/u) en 9 meses + $40K en infra?» Razona paso a paso. Considera: costo año 1, costo año 3, riesgo de calidad, regulación, talent retention.
ejercicio 37 · ~8 min · bloom: crear
Decisiones IT típicas: ¿divido este microservicio? ¿activo este feature flag al 100%? ¿escalo o refactorizo? ¿añado caché o índice?
CONTEXTO: [describe la decisión, los datos disponibles, las restricciones del banco]. INSTRUCCIÓN: razona en 4-6 pasos prescritos. Sugerencia de pasos: 1. Estado actual (métricas duras). 2. Opciones disponibles y trade-offs. 3. Restricciones bloqueantes. 4. Riesgo de la opción preferida. 5. Plan de rollback si falla. 6. Recomendación con dueño y fecha. FORMATO: conclusión accionable al final.
ejercicio 38 · ~7 min · bloom: analizar
3 ejemplos donde cada uno muestra cómo se razonó la dimensión regulatoria, técnica y operativa antes de la clasificación final.
EJEMPLO 1 · Release «Onboarding KYC v2»: - regulatorio: cambia flujo de identidad ↑ - técnico: 3 servicios afectados, blue/green ↓ - operativo: ventana de 2h, on-call entrenado ↓ → Riesgo MEDIO (regulatorio domina). Genera 2 ejemplos más siguiendo el patrón. Luego clasifica 3 releases nuevos del backlog del banco.
ejercicio 39 · ~5 min · bloom: evaluar
El objetivo es construir tu radar de cuándo NO meter chain-of-thought.
A) «Renombra estas variables siguiendo
camelCase: total_amt, num_trx, dt_open.»
B) «Corrige sintaxis SQL:
SELECT * FROM trx WERE id=1»
C) «Escribe tweet ≤280 chars anunciando la
nueva feature de pagos QR.»
Ejecuta cada una CON y SIN CoT. ¿Mejora alguna?
concepto clave · anatomía del rol
Dominio técnico + años + especialización concreta. No «experto en cloud» sino «arquitecto cloud con 10 años en banca regulada LATAM».
Desde qué ángulo analiza: financiero, operativo, regulatorio, técnico, de usuario final.
Qué NO debe hacer: jerga, suposiciones, sesgos típicos del rol, palabras prohibidas.
ejercicio 40 · ~6 min · bloom: aplicar
Tema de cabecera del banco: riesgos de meter IA en atención al cliente (chatbot, IVR, app).
TAREA FIJA: «Analiza los riesgos de implementar IA generativa en atención al cliente del banco.» VERSIÓN 1: ejecuta SIN rol. VERSIÓN 2: ejecuta con rol: «Eres CISO con 12 años en banca regulada LATAM, especializado en superficie de ataque en canales digitales y compliance con normativa local.»
ejercicio 41 · ~7 min · bloom: aplicar
Mismo formato de respuesta, 3 roles del banco. Tabla obligatoria al final.
TAREA: «Evalúa la propuesta de automatizar
el pipeline de despliegue a producción
del módulo de cuentas con GitOps +
progressive rollouts.»
FORMATO fijo: 3 argumentos a favor, 2 riesgos,
1 recomendación.
ROL 1: SRE Lead, 8 años plataforma cloud.
ROL 2: Engineering Manager del módulo.
ROL 3: CISO del banco.
Después · tabla: Rol | Argumentos | Riesgos
| Vocabulario propio.
ejercicio 42 · ~6 min · bloom: analizar
Misma tarea técnica del banco. Roles intencionalmente mal definidos.
TAREA: «Recomienda stack tecnológico para
el nuevo backend de transferencias del banco.»
A) Rol vago:
«Eres un experto.»
B) Rol contradictorio:
«Eres un arquitecto conservador que ama
siempre la última tecnología emergente
y rechaza todo lo on-prem pero exige
cumplir con normativa de datos local.»
Ejecuta ambos y diagnostica.
ejercicio 43 · ~7 min · bloom: crear
Tarea que cruza legal, ciberseguridad, tecnología y RH. Compara rol simple contra rol compuesto.
TAREA: «Redacta la política interna de uso de IA generativa para los empleados del banco (qué tareas sí, qué tareas no, qué datos no pueden compartir, qué herramientas autorizadas).» ROL SIMPLE: «abogado corporativo». ROL COMPUESTO: «abogado corporativo con certificación en ciberseguridad (CISSP) Y experiencia previa como CHRO, especializado en regulación tecnológica en LATAM y banca regulada». Ejecuta ambos y compara dimensiones cubiertas.
ejercicio 44 · ~7 min · bloom: aplicar
Decisión: migrar el core bancario a una infraestructura cloud regulada. Compara solo-rol, solo-CoT y rol+CoT.
ROL: «Eres consultor estratégico tipo McKinsey
con 15 años en transformación digital bancaria
en LATAM.»
TAREA: «Evalúa si el banco debe migrar el core
bancario a una nube regulada (Azure for
Banking / AWS LATAM) en los próximos 24 meses.»
INSTRUCCIÓN: «Razona paso a paso como lo harías
en una sesión con el CEO:
1) Diagnóstico (estado actual con métricas).
2) Opciones (lift-and-shift / re-platform /
re-architect).
3) Recomendación con riesgos top-3 y plan
de mitigación.»
ejercicio 45 · ~6 min · bloom: evaluar
Identifica al ganador con justificación, y la dimensión donde la diferencia importa más.
Profundidad (1-3) ... /3
Aplicabilidad (1-3) ... /3
Perspectiva única (1-3) ... /3
Claridad (1-3) ... /3
TOTAL /12
Pregunta · ¿cuál es más útil para presentar
al comité de tecnología esta semana?
ejercicio 46 · ~8 min · bloom: crear
Va a ser parte del entregable final del día. Reutilizable durante todo el workshop principal.
ROL # · TÍTULO Expertise: dominio + años + especialización. Perspectiva: desde qué ángulo analiza. Restricciones: 2 cosas que NO debe hacer. Casos de uso: 2 ejemplos de cuándo invocarlo. Sugerencias para tu lista: · Code reviewer del banco · SRE on-call diagnosticando incidente · Arquitecto haciendo trade-off design doc · Auditor de seguridad pre-release · Tech writer redactando para no-IT
ejercicio 47 · ~6 min · bloom: aplicar
Evaluación de inversión en una plataforma de observabilidad (Datadog · Dynatrace · New Relic · alternativa open source).
ROL: TLM con 10 años en banca digital,
responsable de plataforma de
observabilidad cross-tribu.
TAREA: «Evalúa la inversión de migrar de
una stack mixta (Grafana+Prom+Loki)
a una plataforma de observabilidad
comercial unificada.»
RESTRICCIONES:
· Máximo 150 palabras.
· No uses jerga que un Gerente General no
entienda (no APM, no MTTR sin glosar).
· No recomiendes sin declarar supuestos.
Orquestar múltiples prompts como un pipeline de producción. Pasa cuando ya tienes claro qué pedirle al modelo en una pasada — pero tu proceso real tiene 4 pasos y necesita verificar entre cada uno.
concepto clave · 4 técnicas de orquestación
Divides una tarea compleja en pasos con dependencia explícita.
Procesar el doc por bloques temáticos y combinar al final.
Escalar consistencia cuando ejecutas la misma tarea con variantes.
Ejecutas varias veces y eliges la respuesta mayoritaria.
ejercicio 48 · ~7 min · bloom: aplicar
Cada prompt toma como input el output del anterior. No reescribes desde cero.
P1: «Define 4 pilares para hardening del
módulo de cuentas del banco
(sugerencias: data, performance,
observability, security).»
P2: «Para cada pilar, genera 3 cambios
concretos accionables en <1 sprint.»
P3: «Organiza los 12 cambios en un
calendario de 3 sprints con dueño
tentativo y métrica de salida.»
Ejecuta P1 → toma output → pega en P2.
Ejecuta P2 → toma output → pega en P3.
ejercicio 49 · ~7 min · bloom: aplicar
Aplica a cualquier categoría: identidad, fraude, KYC, observabilidad. La regla es: cada prompt es función pura del anterior.
P1: «Lista 5 vendors de open banking activos
en LATAM con 1 fortaleza cada uno.»
P2 (usa la lista de P1): «Identifica gaps donde
no hay competencia fuerte hoy.»
P3 (usa los gaps de P2): «Para cada gap, propón
1 oportunidad concreta con estrategia de
entrada de 90 días para el banco.»
ejercicio 50 · ~6 min · bloom: analizar
Análisis de un post-mortem de incidente. El eslabón P2 es deliberadamente vago. Vas a detectarlo y proponer el fix.
P1: «Resume este post-mortem en BLUF +
cronología + causa raíz.» (OK)
P2 (intencionalmente vago): «Genera
recomendaciones basadas en el resumen.»
P3: «Prioriza las recomendaciones.»
Ejecuta la cadena completa.
¿Dónde se rompe? ¿Por qué P2 falla?
Propón fix.
ejercicio 51 · ~8 min · bloom: crear
Sugerencias: incidente (triage → diagnóstico → fix → post-mortem). Release (design → review → deploy → monitor). Decisión técnica (research → análisis → propuesta → presentación).
1. Mapea tu proceso en 4 pasos (2 min). 2. Escribe 1 prompt por paso con formato de output que alimente el siguiente (4 min). 3. Ejecuta la cadena completa con un caso real. 4. Documenta dónde tuviste que intervenir manualmente.
ejercicio 52 · ~6 min · bloom: aplicar
Aplica a: ADR, design doc, propuesta de migración, plan de capacity, política técnica.
P1: «Genera borrador de RFC para añadir
login por passkey en la app móvil del
banco (8-12 secciones estándar).»
P2 (QA): «Revisa este borrador y lista:
- ¿qué falta?
- ¿qué es factualmente cuestionable?
- ¿qué sobra?
Sin reescribirlo todavía.»
P3: «Reescribe el RFC incorporando las
correcciones específicas de P2.»
ejercicio 53 · ~6 min · bloom: evaluar
Honestidad ante todo: documentas si el chaining justificó el overhead o si A era suficiente.
TAREA: «Genera comunicación in-app + push para usuarios sobre la migración del módulo de cuentas el sábado 02-06h. Tono empático, acción del usuario clara.» A) Un solo prompt con todo el contexto. B) Cadena de 3: P1 · perfila al usuario afectado. P2 · define el dolor / preocupación principal. P3 · escribe la comunicación con tono apropiado. Ejecuta ambas y compara.
ejercicio 54 · ~6 min · bloom: aplicar
El prompt P1 clasifica y enruta. Según la clase, se ejecuta P2a o P2b.
P1: «Analiza este ticket y clasifica:
¿es TÉCNICO (la app no carga / falla)
o de CUENTA (acceso, saldo, movimiento)?»
SI técnico → P2a: «Genera respuesta con
pasos de troubleshooting + reproducción.»
SI cuenta → P2b: «Genera respuesta empática
con opciones de validación de identidad
y siguiente paso.»
Ejecuta con 2 tickets reales (1 técnico, 1
de cuenta).
ejercicio 55 · ~7 min · bloom: crear
El test definitivo: alguien más debería poder ejecutarla con un input distinto sin tu ayuda.
P1: [TAREA_INICIAL]
→ output con [FORMATO_FIJO].
P2: input = output P1 + [CRITERIOS_QA]
→ output corregido.
P3: input = output P2 + [AUDIENCIA_DESTINO]
→ entregable final con [FORMATO_PUBLICAR].
Documenta:
- Variables (qué puede cambiar).
- Dependencias (qué NO puede cambiar).
- Caso de prueba con input distinto.
ejercicio 56 · ~7 min · bloom: aplicar
Sugerencias: un RFC interno, una circular del regulador local, un post-mortem extenso, un white paper de un vendor.
1. Divide el documento en 3 chunks temáticos
(no por número de páginas — por tema).
2. Para cada chunk:
«Resume en 3 bullets los puntos clave,
sin perder cifras ni nombres propios.»
3. Combina los 3 resúmenes:
«Combina estos 3 resúmenes en 1 resumen
ejecutivo de 100 palabras coherente.»
ejercicio 57 · ~6 min · bloom: aplicar
Texto fuente: un post-mortem público (status page de un proveedor cloud) o una circular del regulador.
«Del siguiente texto, extrae SOLO:
1) Cifras numéricas con su contexto
(latencia, costo, % impacto, duración).
2) Nombres de personas / equipos / servicios
mencionados, con su rol.
3) Fechas, plazos y deadlines explícitos.
Formato: tabla por categoría.
Regla: si un dato no está en el texto,
escribe '[no mencionado]'. NO inventes.»
ejercicio 58 · ~8 min · bloom: crear
Inputs: tipo de análisis · componente del sistema · audiencia. Output: prompt completo y ejecutable.
«Eres un ingeniero de prompts.
INPUT del usuario:
· tipo_análisis: {riesgo, capacity, performance,
coste, seguridad}
· componente: {mobile, web, core, batch, data}
· audiencia: {CTO, CISO, comité, equipo}
OUTPUT que debes producir:
Un prompt completo con los 5 componentes
(rol, tarea, contexto, formato, restricciones)
listo para copy-paste.»
Prueba con 2 inputs distintos y evalúa.
ejercicio 59 · ~6 min · bloom: evaluar
Identifica el patrón de debilidad. Ajusta el meta-prompt para corregirlo.
[ ] Los 5 componentes presentes. [ ] Rol específico (no «experto»). [ ] Contexto con ≥3 datos del banco. [ ] Formato verificable. [ ] Restricciones reales. [ ] Ejecutable sin edición. Cuando los 3 prompts compartan una debilidad → ese patrón está en el meta-prompt. Ajusta el meta-prompt y re-genera los 3.
ejercicio 60 · ~8 min · bloom: aplicar · entregable final
Identifica UNA tarea de tu rol que escribes 5+ veces al mes con pequeñas variantes. Crea el meta-prompt parametrizado. Genera 3 prompts. Documenta.
· Respuesta a P1 / postmortem por incidente. · RFC técnico para nueva capacidad. · PR description con contexto y trade-offs. · Release notes para usuarios finales. · Ficha de ADR (Architecture Decision Record). · Plan de rollback para feature flag. · One-pager para comité de cambio (CAB). Flujo · 8 min: 1. Identifica caso recurrente (1 min). 2. Diseña meta-prompt parametrizado (4 min). 3. Genera 3 prompts y valida (3 min).
concepto clave · estrategias para documentos largos
| estrategia | cuándo usar | riesgo |
|---|---|---|
| Chunking | Documento > ventana de contexto. | Perder conexiones entre chunks. |
| Summarize first | Necesitas visión general primero. | Perder detalle importante de un párrafo clave. |
| Extract & query | Solo necesitas datos específicos. | Ignorar contexto relevante alrededor del dato. |
| Map-reduce | Análisis cuantitativo distribuido (n > 50 docs). | Complejidad innecesaria para 3 docs cortos. |
Regla de bolsillo: la táctica más simple que cubre tu caso, gana. Cuando 3 docs caben en la ventana de contexto del modelo, leerlos enteros es mejor que cualquier chunking.
concepto clave · cuándo automatizar con meta-prompts
| baja variabilidad | alta variabilidad | |
|---|---|---|
| Alta frecuencia | Template fijo reutilizable. | Meta-prompt parametrizado ✓ |
| Baja frecuencia | Prompt manual cada vez. | Prompt manual con componentes explícitos. |
Meta-prompting justifica la inversión sólo cuando frecuencia alta + variabilidad alta. Si la tarea es siempre igual, un template fijo basta. Si la haces una vez al trimestre, no vale la pena el overhead.
parte 2 · cinco cosas que ahora sabes hacer
Paso a paso = auditable y verificable. No para tareas mecánicas.
Expertise + perspectiva + restricciones. Rol compuesto para tareas que cruzan dominios.
Output N → Input N+1 con verificación. Detección de eslabón débil.
Chunking, extracción focalizada, map-reduce. La táctica más simple que cubre gana.
Generadores parametrizados para tareas frecuentes con variabilidad.
balance del día · 8 horas
Todo eso es materia prima para la Sesión A · Cowork. En Cowork vas a meter esos prompts, roles y cadenas dentro de un project persistente con knowledge files del banco — y dejarán de ser texto suelto en un chat para volverse infraestructura compartida del equipo.
a continuación · sesión a · claude cowork
Hoy aprendiste a operar el prompt. La Sesión A te enseña a operar la herramienta que lo aloja: Claude Cowork, projects con instrucciones y knowledge persistente, sesiones reusables, y los 5 patrones de uso sobre material real del banco.
Tu prompt deja de ser texto suelto y se vuelve infraestructura con instrucciones persistentes.
Anatomía, ejemplos, CoT, roles, cadenas — todo lo del día sigue valiendo dentro de Cowork.
Tu cuenta corporativa de Claude + el repo del workshop. Pre-requisitos al inicio de la Sesión A.
Si saliste con esa idea encarnada, las próximas 3 sesiones del workshop te van a sentir naturales. Si saliste con la duda — abre la biblioteca de prompts que armaste hoy y empieza a usarla mañana lunes.