Secciones

🎯 FUNDAMENTOS

Lo que nadie te explica porque “todos lo saben” (pero nadie lo sabe bien)

POR QUÉ EXISTE ESTA SECCIÓN

No puedes ignorar el mundo real.

No puedes versionar prompts sin entender límites de contexto. No puedes desarrollar sistemas financieros sin saber por qué usar float para dinero es un tiro en el pie.

No puedes implementar compliance técnico sin entender qué dice realmente la LFPDPPP.

Los tutoriales asumen que ya sabes los fundamentos.
Los cursos los explican con teoría abstracta.
Esta sección te los explica como lo que son: decisiones técnicas con consecuencias reales.
Sin hacer publicidad y sin caer en el hype improbable.

Antes del CÓMO, viene el POR QUÉ.

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

QUÉ VAS A ENCONTRAR AQUÍ

– Conceptos técnicos explicados sin asumir conocimiento previo
– Por qué importan en sistemas reales (no juguetes de tutorial)
– Consecuencias de ignorarlos (con casos reales)
– Soluciones correctas (con código cuando aplica)
– Referencias para profundizar

Temas cubiertos:

PROXIMOS POSTS:

Por qué NUNCA usar float/double para dinero
Límites de contexto en LLMs explicados
Git básico: lo que realmente necesitas saber

LLM/IA (contexto, tokens, temperatura, alucinaciones)
Tipos de datos (float vs decimal, fechas, nulls, strings)
Versionado (Git, semantic versioning, migrations)
Arquitectura (separation of concerns, stateless, idempotencia)
Seguridad (hashing, encryption, SQL injection, XSS)
Legislación técnica (CFDI, LFPDPPP, retención de logs)

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

⚡ PRUÉBALO YA

Código real. Comparaciones reales. Resultados reales.

QUÉ ES ESTO

Cada semana resuelvo un problema práctico con código.

Lo genero con diferentes LLMs, que no siempre son los mismos:

ChatGPT
Claude
Llama (local)
Gemini

Comparo:

Tiempo de generación
Obediencia
Calidad del código
Errores encontrados
Da un extra ?
Parte visual

Publico todo en el repositorio para que lo copies y uses HOY o hagas tu propio experimento.

POR QUÉ COMPARAR LLMs

Porque en 2026 necesitas saber:

Cuál LLM usar para qué
Qué tan confiable es cada uno
Como usarlos en conjunto

No creo en “el mejor LLM”. Creo en usar la herramienta correcta para cada trabajo. y pedir opiniones y luego les pido que hagan el trabajo, para calificarlo y compartir después.

REPOSITORIO

Todo el código de esta serie:
https://github.com/AlfonsoOrozcoAguilarnoNDA (empiezan con vibecoding)

Tema Nuevo cada miércoles

Licencia: MIT (úsalo libremente pero si te explota es asunto tuyo)

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

ÚLTIMOS EJEMPLOS:

Semana 1: Control de Favoritos (Urls)
Semana 2: [próximamente]

 


✂️ SNIPPETS

Código rápido, opiniones sueltas, experimentos sin conclusión formal.

QUÉ ES ESTO

No todo merece una sección propia. Pero tampoco merece desaparecer.

Aquí van las cosas que no caben en otro lado: un script que resolví para algo mío, la opinión de una IA sobre un tema que me pareció interesante, una observación que no da para artículo pero sí para dejarse escrita.

Sin formato fijo. Sin frecuencia programada. Sin justificarse.

Si tardé más de veinte minutos resolviéndolo o pensándolo, probablemente vale la pena que esté aquí.

🖼️ IMAGEN DEL D-IA

Un experimento visual a largo plazo. La misma persona. Distintos engines. Distintos días.

QUÉ ES ESTO

Las comparativas de generadores de imagen duran un día. Esta dura meses.

Tomamos una persona generada por IA — sin rostro real, sin derechos de imagen, sin datos personales — y le pedimos a distintos engines que la pongan en situaciones diferentes. Misma cara, distinto contexto, distinta herramienta.

Lo que nos interesa no es quién genera más bonito hoy. Nos interesa quién recuerda mejor mañana.

POR QUÉ UNA PERSONA NO REAL

Sin derechos de imagen que reclamar. Sin riesgo de deepfake. Sin LFPDPPP ni GDPR aplicables. Y técnicamente: un engine reconoce mejor lo que él mismo generó.

No es un atajo. Es la decisión correcta.

LO QUE VAS A ENCONTRAR AQUÍ

— La imagen base y su origen

— El prompt exacto de cada experimento

— Los resultados por engine con fecha

— Lo que se mantuvo, lo que se perdió y por qué importa

 

🧠 VIERNES SOCIAL

Tests psicológicos aplicados a LLMs — porque las IAs también tienen personalidad

POR QUÉ EXISTE ESTA SECCIÓN

Un día, haciendo dashboards, me di cuenta de que las IAs no solo generan código. Toman decisiones. Tienen sesgos. Evaden preguntas. Se contradicen. Y si las pones en un entorno social simulado, se comportan exactamente como personas reales en una oficina.

Esta sección documenta ese experimento.

QUÉ ES EL EXPERIMENTO

Una paraestatal ficticia de fomento al empleo. Diez LLMs como empleados con perfiles psicológicos asignados. Un jefe Lawful Good con 30 años contratando gente. Y cero guión. Solo observación.

QUÉ VAS A ENCONTRAR AQUÍ

— Cómo responden las IAs bajo presión social, no técnica — Qué revelan sus elecciones cuando no saben que las estás evaluando — Quién mantiene coherencia de identidad y quién se rompe — Por qué algunos modelos son PowerPoint y otros son personas

FILOSOFÍA

No creo en benchmarks de tokens por segundo. Creo en preguntarle a una IA qué animal es y ver si miente.

Estos temas se deben leer en orden .

  1. https://vibecodingmexico.com/un-experimento-de-pureza-funcional/

 

El experimento sigue cuando sea necesario. NOse tratade forzarlo.

⚠️ ENEMIGOS INTERNOS

Cuando el problema no es el mercado, sino el sistema que tú mismo construiste

POR QUÉ EXISTE ESTA SECCIÓN

No todos los enemigos vienen de fuera.

A veces es el programador brillante que tiene las llaves de todo y lleva tres meses sin bono. A veces es la vacante que pide Java, Genesys y omnicanalidad para vender seguros por WhatsApp. A veces eres tú, contratando a la sobrina de alguien en lugar de pagar lo que vale el que resuelve los problemas.

Los enemigos internos no llegan con aviso. Se construyen lentamente, decisión por decisión, hasta que un lunes de quincena todo se cae.

QUÉ VAS A ENCONTRAR AQUÍ

  • Vacantes que parecen oportunidades pero son trampas de expectativas
  • Estructuras de negocio que generan conflicto por diseño
  • Decisiones técnicas con consecuencias humanas reales
  • El punto de vista del empresario y del programador – los dos tienen razón

FILOSOFÍA

No busco culpables. Busco el momento exacto donde el sistema empezó a fallar.

Porque en LATAM, la mayoría de los desastres tecnológicos no son errores de código. Son errores de expectativas.

Programada :

 


⚠️ EL PANORAMA

IA y México, vistos desde afuera del hype

 

POR QUÉ EXISTE ESTA SECCIÓN

Porque la IA no llega a un país en orden.

Llega a un país donde los sueldos  llevan 17 años sin moverse de verdad. Donde la gente no lee. Donde las instituciones han mejorado, pero no lo suficiente para confiar en ellas sin verificar. Donde algunos medios medianos publican artículos favorables si alguien paga por ellos, y la mayoría de los lectores no sabe distinguirlo.

La IA no viene a resolver eso. Viene a acelerarlo.

Y si no abres los ojos, la IA no va a quitarte el trabajo de golpe. Va a quitarle la base a todo el modelo de negocio que conoces, despacio, mientras la publicidad le habla a bots que no leen y las empresas siguen pagando por ella.


LO QUE VOY A ESCRIBIR AQUÍ

Lo que veo. Lo que puedo decir. No siempre son la misma cosa.

Trabajo solo, con los confiables. Eso tiene una ventaja: nadie me filtra la realidad antes de que llegue a mí. Y una limitación honesta: a veces sabes cosas que no puedes publicar, y lo más responsable es quedarte callado.

Esta sección no tiene frecuencia fija como las demás. Sale cuando hay algo que vale la pena decir, cuando el análisis está listo, o cuando callarme ya no tiene sentido.

Sin hype. Sin artículos pagados. Sin hacer quedar bien a nadie.

LO QUE NO VAS A ENCONTRAR AQUÍ

Predicciones de gurú. Listas de “las 10 IAs que van a cambiar México”. Opiniones de alguien que acaba de descubrir ChatGPT y ya tiene un curso.

Lo que sí: observaciones de alguien que lleva tiempo en esto, que conoce el contexto LATAM desde adentro, y que prefiere decir menos y acertar, que decir mucho y vender humo.


🤖 DOMANDO LA CAJA NEGRA

Reglas prácticas y organización para trabajar con IA en LATAM

POR QUÉ “CAJA NEGRA”

Las IAs generan código. A veces funciona, a veces no.
A veces es brillante, a veces es basura.
No sabes exactamente POR QUÉ hasta que lo ejecutas.

Eso es una caja negra.

Y en LATAM, trabajar con cajas negras tiene retos únicos:
– Presupuesto limitado (no puedes “probar todo”)
– Equipos pequeños (no hay QA dedicado revisando)
– Sin red de seguridad (un bug en prod = desastre)
– Datos sensibles (SAT, LFPDPPP – no puedes subir todo a la nube)

Esta sección es sobre DOMAR esa caja negra: hacer que la IA trabaje para ti, con tus restricciones,
sin explotarte el presupuesto ni comprometer seguridad.

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

QUÉ VAS A ENCONTRAR AQUÍ

REGLAS PRÁCTICAS:

Cuándo confiar en código generado (y cuándo NO)
Cómo validar outputs de IA sin perder horas
Estrategias de prompts para código en producción
Límites de lo que deberías pedir a una IA

ORGANIZACIÓN:

Versionado de prompts (sí, como código) y resultados
División del trabajo: qué generas, qué escribes tú
Flujo de trabajo: prompt → review → test → deploy
Repositorio de prompts reutilizables

REALIDAD LATAM:

Trabajar con planes gratuitos (estrategias de límites)
Privacidad de datos (qué NO subir a APIs)
Equipos de 1-5 personas usando IA efectivamente te van a echar la culpa. Trabaja Solo
¿porque lo prudente es dar resultados en solitario?
Compliance técnico (SAT, LFPDPPP) con código generado

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

FILOSOFÍA

La IA NO te reemplaza.
La IA NO es mágica.
La IA NO entiende tu contexto de negocio.

Pero BIEN DOMADA:

Acelera tareas repetitivas 10x
Te ayuda a explorar soluciones rápido
Genera pruebas de concepto y prototipos mientras tú piensas arquitectura
Documenta código aburrido que odias escribir

El truco es saber qué delegar y qué supervisar.

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

TEMAS CUBIERTOS:

Prompt engineering para producción (no juguetes)
Límites de contexto y cómo trabajar con ellos
Cuándo usar gratis vs Pro (ROI real en MXN)
Versionado de prompts (Git para instrucciones IA)
Validación de código generado (checklist)
Privacidad: qué datos NUNCA subir a APIs
LLMs locales para datos sensibles (Llama, Ollama)
Y si desaparecen las apis y LLMs que ? La importancia de las locales
Estrategias multi-LLM (usar el correcto para cada tarea)
División del trabajo: IA genera, tú arquitecturas
Testing de código AI-generated (no es opcional)

PRÓXIMOS POSTS:

Versionado de prompts: por qué y cómo
Mi checklist de validación para código generado
Estrategia multi-LLM: cuál uso cuándo (y por qué)
Lo que nunca vas a poder hacer con IA


🔬 LABORATORIO DE RESULTADOS

Proyectos reales en infraestructura propia. Lo que funcionó, lo que no, y en qué fecha.

POR QUÉ EXISTE ESTA SECCIÓN

No puedes confiar ciegamente en los servidores del trabajo. No puedes depender de que el modelo que usas hoy siga comportándose igual el mes que viene. Y no puedes aprender en producción sin pagar el costo de los errores.

Por eso existe el servidor de pruebas propio.

Esta sección documenta experimentos reales corriendo en infraestructura independiente — no en la nube de moda, no en el servidor de la empresa. Proyectos que sirven para dos cosas al mismo tiempo: aprender y resolver problemas reales.

QUÉ VAS A ENCONTRAR AQUÍ Y EN SUS REPOSITORIOS

— Importancia de tener dos plataformas — Explicación de planes de contingencia — Proyectos funcionales con código disponible — Qué modelo generó qué, en qué fecha y con qué resultado — Lo que funcionó, lo que falló y por qué — Comparativas de rendimiento entre infraestructura propia y servidores comerciales — Problemas reales de LATAM resueltos con herramientas reales

FILOSOFÍA

Un modelo de IA que hoy resuelve un problema, mañana puede no resolverlo igual. Esta sección es un registro honesto con fecha y firma. Y guardamos lo que sí funcionó — si el modelo desaparece, los resultados no.

No es un tutorial. Es evidencia.

 


 

🚩 DONDE NO TRABAJAR

Ofertas de empleo ridículas, analizadas para que no caigas en la trampa

POR QUÉ EXISTE ESTA SECCIÓN

Algunos conocidos y yo nos pasamos por WhatsApp ofertas de empleo “interesantes” para reírnos un poco.

Pero la risa se vuelve preocupación cuando ves gente aplicando a estas posiciones — especialmente juniors que están empezando y no saben detectar las señales.

Estas ofertas son de interés general porque son ejemplos claros de:

– Falta de sinceridad (piden senior, pagan becario)
– Falta de contacto con la realidad (“google antigravity”?)
– Condiciones ilegales (salarios bajo mínimo, jornadas absurdas)
– Red flags profesionales (rotación alta, cultura tóxica)

El formato cambia.
La empresa cambia.
El absurdo NO cambia.

Un tema de ejemplo :

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

NOTA IMPORTANTE: DÓNDE BUSCAR TRABAJO REALMENTE

Puede parecer que el mejor lugar para buscar trabajo son LinkedIn o sitios en inglés. No necesariamente es así.

En LinkedIn vas a recibir ofertas que no van con tu perfil porque los recruiters tienen cuotas que cumplir. Spam automatizado.

Es común (y válido) buscar en portales mexicanos como:
– OCC Mundial
– Computrabajo
– Indeed México

Sí, pagan menos por publicar. Pero ahí es donde empresas REALES buscan personas para situaciones REALES.

Dicho esto: lo mejor es tener tus contactos y, sobre todo, que tu trabajo hable bien de ti. Que no tengas que buscar.

Pero mientras tanto, puedes reírte un rato con estas ofertas.