Tengo razones para pensar que en el próximo año van a desaparecer o hacer merge varias LLM, y me refiero a algunas importantes. El año 2025 Gemini tuvo muchos cambios, en 2026 Grok ha tenido varios cambios y todo lo relacionado con OpenClaw, Moldbot y agentes es una realidad contradictoria, donde no es el mercado el que se mueve, sino los deseos contradictorios de codicia de varios fundadores. El evento de Anthropic Claude y su baneo por el Departamento de Defensa, y las actitudes de ChatGPT y sus fundadores, me preocupa.
Las dos únicas personas que conozco que usan de manera cotidiana un LLM, usan ChatGPT casi exclusivamente. Yo reconozco que es bueno para los cálculos, y ya. Lo tengo descartado por varias razones y, al momento de escribir esto, uso Copilot para ortografía, Claude para razonamiento profundo y Gemini como integrador de contexto, solo en versiones gratuitas.
No sé si la IA y las LLM sigan como van de aquí a un año, pero sí veo muy probables fusiones. No sé si valga la pena seguir escribiendo sobre esto dentro de un año, pero de momento hay varias razones largas de explicar que me llevaron a crear este sitio por mis propias necesidades y lo que veo en LATAM.
Me preocupa, por ejemplo, que muchas personas usen React y Node como si fueran nuevos, cuando son de hace 10 años, y no saben lo que es un nivel de Jackson. Sin eso, traducir sus @Autowired o corregirlos es echar agua en un lodazal: solo pierdes tu tiempo. React y Node pueden ser útiles, así como Spring Boot, pero solo si tienes un buen servidor. Y como muchas veces no controlas tu servidor, me disgusta perder tiempo cuando le digo a un cliente que el problema es su servidor y no su stack. Es frustrante.
En ese aspecto, hay soluciones más limpias para trabajo real con Compliance. Principalmente por no tener demasiadas dependencias: PHP 8.x y Python 3.x. Al momento de escribir esto me doy cuenta, desde hace unas semanas, de la necesidad de explicar algunas cosas en Python, aunque siempre suelo sugerir PHP porque está en casi todos los servidores.
No puedes tener 800 dependencias no auditables en un sistema de salud o de factura electrónica. Piénsalo un poco. Por eso Python y PHP, con el concepto de “baterías incluidas” y dependencias mínimas, son viables incluso para entornos air gapped.
Y el problema en México no son solo los precios, sino los equipos. Muy pocas personas tienen computadoras no-Mac con 32 GB aquí en México, y casi todos son gamers. Supongo que en LATAM es igual. Yo tengo 14 computadoras en mi casa; las razones son:
- a veces acepto dación en pago de clientes,
- con clientes que murieron en pandemia COVID, sus viudas me dieron las máquinas,
- armo máquinas específicas por una razón en especial y me las quedo muchas veces. Son parte del costo del proyecto.
Así que en la casa tengo 14 computadoras, de las que la mitad tiene 16 GB de RAM o más, otras 2 tienen 8 GB y las demás cuatro o menos. Solo una es una laptop, y en esa no puedo usar LLM por sobrecalentamiento si lo instalo en modo local.
Así que, como la mayoría de las personas no tienen computadora poderosa y la mayoría solo 8 GB, me enfoco en LLM de web y de enfoque gratuito, porque para muchos 400 pesos al mes es mucho.
No se trata solo de la tecnología, sino de la infraestructura y las condiciones reales de uso en México y la región LATAM.
Hay varias líneas de trabajo para este sitio que merecen explorarse. Proyectos aislados pero interesantes, para diferentes necesidades de personas con las que tengo contacto. Soy un programador de 54 años, con 35 años de experiencia programando, y creo que el 2026 va a ser un batacazo fenomenal para la IA en USA. Pero también, más pronto que tarde, un golpe terrible para empresas en México que están pagando demasiado poco a los programadores / Devops, y que usan stacks que no sirven para necesidades imposibles. México tiene muchos deseos contradictorios.
Aprendí a programar con 512 KB de RAM en computadoras genéricas. Me tocó pelear con problemas de memoria de ensamblador y lenguaje C en 8088 y 80286. Los problemas de la serie SX de procesadores, los bugs de Pentium y del año 2000. Así que, además de eso, he vivido los colapsos económicos de 1995 y 2001, y veo un problema en el sector para este año 2026 o el próximo.
Criterios que consideré:
Resumen de Evaluación
| Criterio | Calificación | Nota del criterio |
| Coherencia | Alta | Mantener un hilo conductor: independencia, bajo costo y robustez. |
| Originalidad | Alta | Mezclar contabilidad, astronomía, gaming y ERPs locales. |
| Riesgo | Medio | El mayor riesgo es el tiempo que consume mantener 6 líneas de trabajo solo. |
| Impacto | Alto | Educar sobre la “soberanía del servidor”, algo que se está perdiendo en LATAM. |
- Importante : Cada uno de estos seis proyectos tendrá su propia serie de posts cuando haya algo real que documentar. No voy a escribir sobre lo que aún no existe. Este post es el índice, no el contenido. Si alguno desaparece en el camino, también lo voy a documentar, y esa también es información útil.
1) Grace 2038: Novias virtuales y colapso de GPT‑4.0
Por Facebook me han buscado personas que me piden apoyo con las novias virtuales y el colapso de GPT‑4.0. Aquí tengo dos temas que tratar: el moral y el experimental.
En realidad creo que los usuarios que estén interesados en algo estable necesitan una LLM local, gratuita. Y en lo experimental, hay unos cuantos marcos éticos y salvaguardas para evitar autoengaños. Siempre he preferido no opinar sobre sexualidad: cada quien tiene su asunto en la cabeza. Aunque soy hetero, prefiero por muchas razones no preguntar y no juzgar. Vivo sin imponer y no permito que me impongan.
Para otro proyecto, “viernes social”, hablábamos de crear un perfil G, necesario por ese experimento, pero en un LLM. Así que creo que lo mejor es basarme un poco en la idea de la película Cherry 2000, que hablaba en los 90s de novias virtuales, y hacer una versión moderna con letra G: Categoría Grace 2038. Porque en 2038 va a haber cambios en el manejo de épocas de Unix, y Grace es un nombre inglés con G, bueno para la categoría. Además es un juego de palabras con Grace de Umbrella Academy. Es ingeniería de prompts y análisis moral. No código.
Código: No
Licencia: BSD‑3 (No me eches la culpa si no funciona)
Alineación: Pruebas éticas y morales
Modelo Local: probablemente Qwen o Kimi, por definir
Modelo Online: No lo diré. Solo que acepta *.docx como archivos
Temas:
- Parte en modo local: Grace 2038, posiblemente Qwen
-
Aviso técnico antes de intentar esto en local: con 16 GB de RAM puede ser necesario un modelo más pequeño o previo de QWEN, no coder. Hay otro problema al que llamo el castillo de la pureza, que explico en otro post. Para uso virtual y trabajo real sin tarjeta gráfica, Linux en desktop puede ser mejor opción que Windows. Y por sobrecalentamiento, no uses laptops para LLM local, solo desktop. Esto es especialmente relevante en LATAM donde la mayoría no tiene 32 GB ni NVIDIA.
-
- Parte en modo online: el nombre que le asigne al perfil G en viernes social
- Punto Fuerte: Este es el proyecto más audaz. El “problema moral” de las novias virtuales es una realidad creciente ante la soledad digital. Abordarlo desde la ingeniería de prompts y marcos éticos, en lugar de solo código, es necesario por razones de Responsabilidad Social , Compliance, Kant y Filosofía Estoica.
- no buscamos hacer un “chatbot erótico”, sino un análisis moral sobre la dependencia emocional y el colapso de modelos y generar una personalidad asistente de brújula moral, en entorno coporativo. Análisis de riesgos de relaciones Scam amorosos Pig Butchering y en su lugar crear salvaguardas mentales y emocionales que pueden ser necesarias en futuros distópicos como Todos Sobre Zanibar / Orbita Inestable de John Brunner, o tipo el Juez Dredd o “demolition man” (stallone + Sandra Bullock), llamada en México el demoledor.
-
La inclusión de los conceptos de Pig Butchering (estafas de “matanza de cerdos”) y la referencia a la distopía de John Brunner las uso para indicar que pienso hacer un análisis de profundidad sociológica. Ya no es solo “ingeniería de prompts”, es contrainteligencia emocional.
2) Proyecto Kind Orbit (Gemini + APIs de la NASA)
Quiero probar a Gemini en un proyecto de APIs de la NASA y uno o dos más. Así que probablemente haga un sistema de astrología gratuito (sí, astrología, no astronomía) por Vibecoding, pero que no haré disponible en todo el material.
¿Por qué? Porque hay muchos engaños que quieren sacar dinero de las personas. Y da la casualidad que en mi juventud aprendí varias cosas sobre ARMC y efemérides para marinos, y tuve un jefe que ponía peso en los criterios para contratar a alguien según su signo astrológico. Así que tengo bastantes bases para poder hablar de astrología como una máquina de imaginar de Jung. Es un proyecto interesante.
Yo soy fan de usar la intuición, pero quiero evitar que vendedores de lo sagrado hagan comercio. Y unas interfaces con la NASA, similares por API, parecen buena idea. Proyecto Kind Orbit. Es ejercicio mental, y no todo el código será disponible. Se hacecon gemini por ser bueno con las APIS.
Licencia: Probablemente MIT o BSD‑3 (No me eches la culpa si no funciona)
Alineación: Pruebas de API y calculos astrológicos, posts sobre astronomia y astrología.
Modelo Local: No aplica por las APIS
Modelo Online: Gemini
-
Punto Fuerte Kind Orbit (NASA + Astrología): Aunque parezca “fuera de lugar” para un programador tradicional, lo conectas con la psicología de Jung y el uso de APIs. Es un ejercicio de intuición y manejo de datos complejos que aporta humanidad al sitio.
3) Proyecto ELGOI (DeepSeek + Python)
DeepSeek Python. Python lo usan muchos programadores como python101 o con React, lo que es una abominación. Creo que puedo responder varias necesidades de la comunidad de EVE Online, un videojuego, a través de Vibecoding en Python.
Incluyendo para algunos de mis lectores usar un VPS de 5 USD al mes. El proyecto se llamará ELGOI, que es el nombre de un sistema planetario en el juego EVE Online, y fácil de recordar. Por lo mismo compré el dominio elgoi.com. La idea es usar solo DeepSeek como parte de una prueba medianamente profunda, cambiando si hace falta de motor. Necesito conocer sus límites y ver para usar en hardware local.
Debo dejar claro que empiezo con PHP como primer sprint y migramos a Python después. Es mas simple hacer algo funcional rápido en PHP que python, por que un servidor normal no necesita ajustes especiales para php y un servidor de python si.
Objetivo control de la flota y cosas simples pero utiles para presentación y portafolio.
Código: Si
Licencia: GPL
Alineación: Dashboards y Oauth mas APIS de Eve online,control de flota, dashboards. Forzoso posts de introducción a eve online aqui, y blog extra en inglés . Se usará dominio aparte para levantar python 3.x y ver online los dashboards.
Modelo Local: No aplica
Modelo Online: Deepseek inicialmente con posibilidad de cambio si no cumple las expectativas
-
Punto Fuerte 1: ELGOI (DeepSeek + EVE): Es un excelente laboratorio. Los usuarios de EVE Online son, por definición, auditores de datos y optimizadores de recursos. Si un tablero de Python sobrevive a la comunidad de EVE, sobrevivirá a cualquier cliente corporativo.
-
Punto Fuerte 2:Las pruebas de Python 3.0 es lo que me importa más.
4) Proyecto Birdeye (Admin Template con PHP y Python)
En 2025 me tocó una suplantación de identidad digital en una paraestatal. Salí porque decidieron no pagar a unas 200 personas (fui uno de ellos) y yo manejaba información confidencial. Por lo mismo, varias herramientas quedaron huérfanas y destruidas por ellos mismos.
Estoy pensando en hacer un template de administración, parecido al proyecto laboratorio Lemkotir, pero con PHP y Python y con reglas de integridad y soberanía. Para que no te preocupes si te cortan el servidor o se muere alguien: se puede usar, pero tendrá salvaguardas. No es autodestrucción, pero sí protección para evitar que el programa vaya a la deriva. Es planeación y desactivación automática, no destructiva, legal, pero precavida. Licencia BSD‑3 para que no te echen la culpa después.
El proyecto se llamará Birdeye (ojo de pájaro) y el repositorio será Thulionef-php y Thulionef-python, por la palabra rúnica de Diablo 2 BLACK. Ya que la interfaz en que pienso hacerlo es una sobria color negro, inmejorable, hecha parcialmente por Gemini. Con eso tengo para PHP y Python.
Motor Gemini porque el hizo el diseño original. y me permitirá ver como funciona por procesode Chunks o documento maestro.
Código: Si
Licencia: BSD – 3 No me eches la culpa si falla o no entiendes lo que es seguridad por PRUEBA DE VIDA. No
Alineación: Dos paquetes de navaja suiza, no destructivos. Template admin con extra que te deja ver avuelo de pajaro (birdeye) que está pasando.
Modelo Offline: No aplica
Modelo Online: Gemini
-
Punto Fuerte: Crear sistemas que no dependan de un NPM que puede romperse o de una sola API que puede banearte (como el caso de Anthropic/DoD que mencionamos) es la definición de resiliencia profesional.
5) Proyecto Qwen Stacy
Este es un proceso mucho más ambicioso, en PHP porque es fácil mostrarlo en cualquier servidor. Pienso hacer un ERP Vibecoding que funcione en LLM y solo generado por modelos locales. LLM, aunque el documento inicial sea de Claude. Serán comentarios y prompts, pero probablemente pueda venderlo y no esperes todo el código aquí: mi know‑how de diseño vale, mis conocimientos contables también, y es un laboratorio interesante.
El nombre viene de un personaje de Spider‑Man: Gwen Stacy, su tercer amor después de Betty Brant y Liz Allen, lo único decente que tuvo y que muere de una manera trágica. Qwen, como modelo, representa lo mejor del ser humano y del código: la independencia y el recuerdo. Por lo mismo, en un momento en que las LLM públicas desaparezcan, es posible que solo quede Qwen Stacy después de la muerte de los modelos insostenibles.
Código: Solo Parcial
Licencia: Probablemente LGPL
Alineación: Sistemade Gestión y Prueba de modelos Qwen locales.
Modelo Offline: Familia Qwen
Modelo Online: Qwen de qwen.ai
- Punto Fuerte: Enfoque en ERP contable/local y generación pura por modelos locales. La vida después de los LLM online.
6) Dulces 16
Pruebas en Linux de LLM locales, en una máquina armada con Linux. Tengo varias que sirven: una con tarjeta de video decente y otra que no. Pero la de tarjeta de video decente no tiene CD (es más seguro). Así que lo más seguro es hacerlo solo con una PC con chip integrado y, al mismo tiempo, usarla para probar distribuciones de Linux que soporten EVE para el proyecto ELGOI.
Es un proyecto mixto: LLM en 16 GB de RAM sin NVIDIA, y EVE en Linux.
una verdad incómoda que pocos aceptan: el mundo no corre en Macs M3 de 64 GB.
-
Punto Fuerte: Es vital probar LLMs en 16 GB de RAM con chips integrados es lo que realmente necesita el 90% de los desarrolladores en la región. Si logras que corra ahí, el software será universal en nuestro mercado.
Código: No
Licencia: La del sitio, creative commons misma que wikipedia
Alineación: Pruebas
Modelo Offline: No aplica pero comentaré si lo hay
Modelo Online: No aplica pero comentaré si lo hay
En resumen:
Pienso que vienen cambios en LATAM y las LLM en general, probablemente compra o fusión de Copilot (Microsoft)y Chatgpt (OPENAI) con otras, y que este material se escribirá cuando se aplicable, durante un año, sin frecuencia fija.
- Repito : Cada uno de estos seis proyectos tendrá su propia serie de posts cuando haya algo real que documentar. No voy a escribir sobre lo que aún no existe. Este post es el índice, no el contenido. Si alguno desaparece en el camino, también lo voy a documentar, y esa también es información útil.