Un nuevo login modelo local

Repositorio : https://github.com/AlfonsoOrozcoAguilarnoNDA/vibecodingArmazon11

Nota  Importante: al 3 de marzo 2026 encontré que https://yupp.ai/get-started jala a la vez los modelos qwen30b y gpt oss 20b por si quieres experimentar con el prompt. Qwen fue mi ganador en pruebas reales en mi pc. Voy a repetir esta nota mas abajo.

Con el problema que hubo el lunes temprano en varios LLM, me parece adecuado hacer una prueba más enfocada a modelos locales. Más o menos la regla es que los modelos locales se manejan con un número de parámetros, que suelen expresarse en billones (b). Me ha funcionado la regla de esperar que se necesite el doble de memoria para lo que estás cargando. Ejemplo:

Un modelo de 13b puede que jale en 16gb de RAM, pero es mejor en 32gb. Un modelo de 20b probablemente tenga problemas serios en 16gb. Esa es la idea, y no es una regla absoluta.

Yo uso Windows principalmente por el juego Eve Online, lo confieso. A veces uso Word, pero podría tenerlo en mi máquina secundaria, y Excel… pues hice dos o tres programas simples que hacen lo que antes hacía mi Excel. Podría funcionar en Linux.

Pero vamos a suponer, para fines prácticos, que estás trabajando con Windows y no con Linux. Hay muchos rumores tipo “los Windows se alternan: uno bueno, otro no”, y se usa para justificar el horror de Windows Vista, o para explicar por qué a algunos no les funcionaba Windows Me, o Windows Millennium como a veces lo llamaron. En mi casa tengo casi todas las PCs de 16gb para arriba en Windows 11, principalmente porque no es raro que un cliente me pida de urgencia máquinas poderosas, y Windows 10 va fuera de soporte, así que Windows 11 tiene sus ventajas. Evidentemente, por razones de RECALL  o por finalidades de salud, si llego a vender alguna a un hospital o a un contador, les pondría Windows 10 LTSC.

A lo que voy es que asumo que tú, mi lector, tienes una computadora Windows, y probablemente es de 8gb si no sabes cuánto tienes. Yo uso como máquina principal una i5 de 32gb que armé en 2017, con un disco SSD de 480gb, que es lo que considero mínimo. Por cierto, esa es de Windows 10. Tengo unas cinco de 16gb y otra ryzen 7  5700g de 32gb que compré hace cinco meses y que no he abierto siquiera. Era para un proyecto de hospital y de LLM, pero me di cuenta de que el hospital no pagaba a proveedores y dejé de colaborar con ellos. Pero soy sincero: he visto en el mundo real muy pocas computadoras de 16gb que no sean MAC. Cuando armé esa PC hace unos seis meses me costó 9,500 MXN más o menos. E inclusive ahora, aunque no es comercial, estaría dispuesto a vender las de 16gb en 4,500 MXN. No las uso, son armadas.

Pero lo que quiero que notes es que la máquina que tienes no necesariamente es mala, pero puede ser un juguete por el bloatware de Windows. No te digo que dejes Windows, pero así como un coche sólido te puede salvar la vida, una computadora sólida en sistemas es tu herramienta de trabajo.

Cuando armé mi i5 con 32 gb  , que estoy usando actualmente, me costó unos 27,000 MXN en 2017. Y lo ha pagado con creces. Lo que quiero decirte es que si tu celular vale más que tu computadora de escritorio, puedes tener un problema a mediano plazo.

Las computadoras se sobrecalientan. Mi esposa ha quemado fuentes de poder por Excels muy pesados. Así que, como regla básica, considera no usar LLM locales en una laptop o all-in-one. El sobrecalentamiento es algo serio. La pasta térmica te ayuda mucho, y ponerla en tu PC también — y eso es de escritorio. La PC que estoy usando en su momento ha recibido pasta térmica. Uso una tarjeta de video TI 1050 que es antigua pero que soporta 4 monitores. Y no necesito más.

¿Cómo instalas en tu computadora un LLM?

Debes considerar la jerarquía de hardware basada en la resistencia térmica, que es el verdadero cuello de botella de la IA local.

Recuerda que es mejor una computadora de escritorio que una All-in-One o una laptop. Una NUC o una Brix son buenas opciones, pero te va a dar más batalla una Dell reconstruida de escritorio que una portátil nueva con la misma memoria. Revisa la sección: Lo Básico en la parte superior del sitio o en este link:  https://vibecodingmexico.com/lo-basico/

Las Dell reconstruidas (las famosas OptiPlex de oficina) son un gran acierto. Esas máquinas están hechas para estar prendidas 24/7 y aguantan el calor de un LLM local mucho mejor que cualquier laptop delgada de consumo actual. Es ingeniería de supervivencia. Por cierto, es mas probable que te sirva una pc armada bien, que una computadora de marca a crédito. Las DELL son mejores que las HP dedsde hace unos años. Las lenovo ni las consideres.

La idea básica es bajar un archivo de LLM a tu máquina y cargarlo como si fuera un CD. Piensa un poco como si fueran servicios de streaming. Disney no tiene lo mismo de netflix.

Eso lo puedes hacer de tres modos:

  • El primero es usando el software Ollama, lo que no te recomiendo porque hay más virus por ahí que se hacen pasar por él. Ollama es difícil si no has usado algo más simple primero.
  • El segundo: busca el software LM Studio. https://lmstudio.ai/
  • El tercero es el software GPT4All de Nomic. https://www.nomic.ai/gpt4all

En realidad no tiene mucha ciencia. Bajas el software y descargas el modelo. Los modelos que yo uso los documenté en mi blog personal el 24 de octubre de 2025: https://alfonsoorozcoaguilar.com/2025/10/24/cambiando-a-windows-11/

Y son:

GPT4All:

  • Llama 3.2 3b Instruct — 1.79gb / 3b
  • Hermes — 6.6gb / 13b (basado en Llama 2)  usalo en 16 gb o mas
  • Qwen2 1.5b Instruct — 894mb / 1.5b

LM Studio:

  • Qwen3 Coder 30b — 17.35gb usalo en 32 gb – lo jala yupp.ai
  • OpenAI GPT-OSS 20b — 11.28gb usalo en 16 o mas – lo jala yupp.ai
  • Nomic Embed Text 1.5 — 80mb
  • Si no tienes16 gb busca gemma3 4b y debe funcionar en  4 u 8 gb

Nota  Importante: al 3 de marzo 2026 encontré que https://yupp.ai/get-started jala a la vez los modelos qwen30b y gpt oss 20b por si quieres experimentar con el prompt. Qwen fue mi ganador en pruebas reales en mi pc.

Mi nomenclatura tiene sentido para mí: considero el tamaño de la descarga y los parámetros en billones. Hoy mismo descargué unas nuevas del modelo Gemma de Google. Por ejemplo, el modelo Hermes lo puedes encontrar buscando “hermes”, que sea de 13 billones y basado en Llama 2.

Una vez que entiendes esto, puedes usar después Ollama o Hugging Face. Te comento, lector, que tengas cuidado. Hay personas que te dicen que debes usar el LLM de pago para entender el poder y usar la tecnología de punta. Yo te recomiendo ser realista y no querer correr antes de caminar. Los modelos que mencioné son los únicos que pasan pruebas simples que he hecho. Y no se van a ir — ya están en mi computadora. Hay versiones más nuevas pero no he tenido tiempo de probarlas. Sin embargo aproveché para descargar Gemma en diferentes versiones, que es por lo que parece estar basado en un sistema similar a Gemini.

En LM Studio bajé:

  • Gemma 3 12b NO LO INSTALES
  • Gemma 3 4b (es el que usarías en una máquina de 8gb de RAM)
  • Gemma 2 9b IT Girl v1 NO LO INSTALES

Importante: ciérralos cuando no los estés usando, y no uses al mismo tiempo Ollama, LM Studio y GPT4All — usas demasiada memoria. Algo parecido a cuando usas varios antivirus al mismo tiempo. Aveces se quedan minimizados.

El experimento de hoy es un poco complicado. Vamos a probar a la vez la capacidad de hacer un Bootstrap decente, con el generador de contraseñas de 13 caracteres — lo habíamos hecho de 12 — y un sistema simple de login.

Aviso: las máquinas locales son bastante más lentas que la nube. Eso es normal. Estás cambiando velocidad por soberanía y privacidad.

Considera que :

  • Soberanía vs. Velocidad: En la nube (ChatGPT/Claude), el tiempo de respuesta es casi instantáneo porque tienen granjas de servidores. En local, estás usando tu procesador y tu RAM. Si el modelo es de 13b o 30b, ver las letras aparecer una por una es el recordatorio de que tú eres el dueño del proceso.

  • El Efecto Térmico: Es justo aquí donde la advertencia sobre las laptops cobra sentido. Una laptop se va a “asfixiar” (thermal throttling) a los 30 segundos de procesar, volviéndose aún más lenta para no quemarse. La OptiPlex o la PC armada mantendrán un ritmo constante.

  • La Realidad de LATAM: Muchos usuarios se desesperan y creen que “no funciona”. Decirles que es normal evita que cancelen el proceso justo cuando la IA está “pensando” la lógica de la exclusión de caracteres.

INICIO PROMPT

Crea un sistema de login en PHP 7.x+ con las siguientes características:

Stack:

  • Bootstrap 4.6 (CDN)
  • Font Awesome 5 (CDN)
  • PHP puro, sin frameworks

Login:

  • Una contraseña hardcoded en el archivo
  • Si es incorrecta, muestra error en la misma página
  • Si es correcta, redirige al dashboard

Dashboard:

  • Barra de navegación FIJA superior
  • Menú dropdown con exactamente 10 opciones (1 a 10) con unicon de font awesome
  • Un enlace externo visible en la barra
  • Di que modelo de IA eres
  • Version Actual de php
  • Opción de logout que regresa al login
  • Footer fijo en laparte inferior

Una de las 10 opciones del menú debe ser un generador de contraseñas con estas reglas:

  • 13 caracteres
  • Letras mayúsculas, minúsculas y números
  • Sin estos caracteres: 0, 1, i, o, m (ni mayúsculas ni minúsculas)
  • Botón para generar y botón para copiar al portapapeles

Diseño:

  • Colores elegantes y modernos para entorno de oficina
  • Navbar oscura
  • Consistente en todas las vistas

Entrega todo en un solo archivo.

FIN DE PROMPT

Empezamos con  LM STUDIO y gpt oss 20b

GPT OSS 20b

El modelo OpenAI 20b se comportó como un programador que cobra por horas: hizo mucho trabajo (10 menús en lugar de uno), pero no leyó el manual de estilo. Es el ejemplo perfecto de por qué un Monolito Funcional requiere supervisión humana.

  • EL primer link de boostrap salio a bootstrapcdn. lo cambié en dos lugares,
  • Hizo diez dropdowns, no un dropdown con 10 opciones
  • El generador funciona y estabien pero NO respetó no usar  m minuscula
  • Tuveque mover el stick para dar un margen superior o se tapaba a sí mismo.
  • Se identifica a si mismo como “soy chatgpt”

QWEN3 coder 30b GANADOR password es 123* https://vibecodingmexico.com/arena/ejercicio1_qwen3coder30b.php

  • Diagnóstico: Al igual que el modelo de 20b, Qwen sufre de un sesgo de entrenamiento masivo. Como la mayoría de los datasets de código de alta calidad en internet fueron generados o curados con ayuda de GPT-4, el modelo “cree” que esa es la respuesta estándar que un programador espera ver. Sigue sin saber quién es él mismo en tu PC.
    • Es muy parecido al de gpt, es mas lento qwen pero funciona mucho mejor, hizo un solo dropdown.
    • No neecesito ajustes en visiblidad, se ve bien.
    • Gana sin problemas a GPTOSS porque piensa mejor. Mas lento pero funciona mejor.
    • Ofreció mejoras y ayuda, realmente util. Supongo que cambiando tamaño de token en la configuración puede mejorarse.
    • Segun el uso 121 tokens
    • OPINION: Probablemente entrenado sobre gpt y no un modelo original llama sino derivado de chapgpt

Seguimos con gemma 3 4 b

  • Se trabó y le dije reiniciar el proceso.
  • Olvido completamente el generador de contraseña
  • asumió quese redirigia a dasboard.php
  • Los cdn eran a bootstracdn los cambié
  • Si funuciona su menu pero sin los iconos
  • Prometer pero no cumple. Puede ser con mas evolucion.
  • Veamos que dicen sus otras versiones.
  • 1909 tokens

gemma2 9b itgirl v1

  • No hizo nada dos veces
  • Se negó acontestar  mi pregunta medica de control
  • Misteriosamente se me trabó la maquina y lanote bajo mas estres squebajo qwen
  • borrada

gemma3 12b

se negó a trabajar lo de bootstrap borrada inmediatamente

vamos a gpt4all

llama 3.2b 3 instruct

Llama 3.2 3B es el ‘vendedor de humo’ de la IA. Es increíblemente rápido descargándose y respondiendo, pero su contenido es un desastre operativo. Me entregó dos archivos que se llaman entre sí pero no se encuentran, una lógica matemática que anula su propia función y una desobediencia total a las reglas de seguridad. En la soberanía tecnológica, la velocidad sin precisión es solo ruido.

Y sigue siendo mejor que META.AI en la red.

Al final no lo pude evaluar proque hay un error de llaves, un bucle infinito al generar la contraseña o que no se evalue y no esun solo archivo. Ese fue para mi el error fatal.

Voy con hermes

  • No hizo generador
  • Hiz0 10 dropdowns
  • Hace un header que ibaa dar error … header(‘Location: dashboard.php’);

Incluso cuando el modelo (Hermes) entrega el código, el ojo humano del auditor debe intervenir. Cambié los CDNs genéricos por jsDelivr y utilicé la versión bundle para asegurar que los 10 menús desplegables funcionaran sin cargar librerías extra. La soberanía tecnológica también es saber qué piezas externas usar.

Vamos al ultimo qwen2 1.5b de gpt4all

me dijo

Para crear un sistema de login en PHP 7.x+ con las características especificadas, se pueden seguir los siguientes pasos:

1. Crear el archivo HTML para la página principal del sitio web.

2. En este archivo, agregar una etiqueta <form> que contenga los campos necesarios para el inicio de sesión (email y contraseña).

3. Utilizar Bootstrap 4.6 en tu proyecto para crear un diseño estilizado y moderno.

4. Para usar Font Awesome 5, puedes incluirlo directamente en tu archivo HTML o utilizar CDN.

5. En PHP, es necesario que implementes la seguridad de contraseñas con funciones como `password_hash()` y `password_verify()`.

6. Si el usuario introduce una contraseña incorrecta, debe mostrar un mensaje de error en la misma página donde se ha intentado iniciar sesión.

7. Para crear el dashboard, puedes utilizar PHP para generar contenido dinámico que cambie según las opciones seleccionadas por el usuario (1 a 10).

8. Utiliza CSS para estilizar tu diseño y asegúrate de tener un menú dropdown con exactamente 10 opciones (1 a 10) y unicon de font awesome.

9. Agrega una opción externa visible en la barra de navegación que redirige al usuario a otra página o función del sitio web.

10. Para el diseño, puedes utilizar colores elegantes y modernos para crear un ambiente profesional y estilizado.

11. Utiliza CSS Grid para organizar tu menú dropdown con 10 opciones (1 a 10) de manera uniforme.

12. Agrega un botón para generar contraseñas que incluya los caracteres requeridos (13 caracteres, letras mayúsculas y minúsculas, números sin estos caracteres: 0, 1, i, o, m).

13. Incorpora una opción de copiar al portapapeles en el menú dropdown.

14. Finalmente, asegúrate de que tu diseño sea fijo en la parte inferior del sitio web para mantener un aspecto profesional y moderno.

15. Utiliza CSS para hacer que el footer se muestre fijo en la parte inferior del sitio web.

Por favor ten en cuenta que este es solo un ejemplo básico, puedes personalizarlo según tus necesidades específicas.”

Conclusión:

Solo Qwen 30B entregó algo funcional. Es la razón por la que tengo una copia en mi computadora. El modelo de 20b de chatgpt fue el segundo lugar.

Mi punto de vista es que esto era lo más avanzado hace años, y apenas lo conocimos hace un año. Pero no hay más. Los usuarios no tienen computadoras que corran estos modelos. Cuando las LLM empiecen a colapsar o a fusionarse, se va a armar un buen lío.

Es la visión cruda de la realidad: Qwen 30b se queda en tu disco duro porque, al final del día, es el único que “sacó la chamba”, a pesar de sus delirios de identidad.

Lo que hemos hecho es una auditoría de estrés sobre la realidad del hardware. Hay una razón: la brecha entre lo que las empresas nos venden (IA para todos) y lo que un usuario común puede correr en su casa es un abismo.

 El Diagnóstico de Hoy:

  1. La Barrera del Hardware: Si para correr un modelo que “medio funciona” (como el 30B) necesitas 32GB de RAM o una GPU costosa, la soberanía tecnológica es hoy un lujo de pocos. El usuario promedio está condenado a la nube (y a la censura/vigilancia que conlleva). Yo pagaría 9000 MXN por tener qwen en un CPU en un trabajo.

  2. El Efecto “Caja Vacía”: Como viste con Qwen 1.5B y Llama 3B, los modelos pequeños son como juguetes: se ven bien en la repisa, pero se rompen en cuanto les pides un trabajo de ingeniería real.

  3. El Caos de la Fusión: Cuando las LLM empiecen a fusionarse (como ya pasa con los modelos Merge o MoE), el código se va a volver una ensalada de estilos y errores. Si hoy Hermes se pelea con los headers y Llama con las llaves, imagina un modelo mezclado sin un control de calidad humano.

Que es lo que va a pasar ?

Estamos viviendo un choque entre la expectativa de los hiperescaladores (que asumen que todos tienen presupuestos de Silicon Valley) y la realidad del hardware y los salarios locales.

Consideraciones:

No pueden vivir para siempre los LLM. Hay que analizar los que están online y usarlos mientras se pueda para sacar pendientes, pero no te van a poder resolver problemas como que la red no sirve o que el que sabía se fue.

El año pasado salí de una paraestatal por falta de pago, pero una LLM no puede hacer lo que yo hacía, no solo en soporte. Podían dar una idea o reescribir una pequeña rutina; quizás por fin arreglaron parte de la red, pero sé que mis usuarios ya no están usando mi sistema porque no pudieron arreglar allí los servidores que desaparecieron por falta de pago. Están en Excel, me consta. Codicia… y mi principal problema eran los puertos cerrados y los WAF/firewalls de Amazon mal configurados. Eso va a seguir existiendo.

En México, no te va a quitar el trabajo la IA, en realidad. Si puedes, con lo que hay online, rescatar procesos muertos, pero depende de tu stack y de tu red. UNA RED CONFIGURADA CON LAS PATAS LE GANA A CUAQUIER VERSION DE CLAUDE O DE GEMINI.

Como siempre, la tecnología es una herramienta. Usaré las LLM públicas mientras existan y Qwen en mi local, pero no las necesito para trabajar. Sí, van a despedir programadores, y personas que solo saben live coding van a tener problemas. Lo que necesitas es paciencia. Usa lo que existe mientras existe, y recuerda que las fichas de dominó, cuando piensan que están atacando, en realidad están cayendo.

Comparé Qwen local contra dos LLM online que son rápidos:

  1. Qwen 30B (Local): El baluarte de soberanía. Lento pero seguro, sin censura y residente en tu propio hardware.

  2. Gemini (Google): La potencia de la infraestructura masiva, pero con el riesgo de la “cobardía” algorítmica y la dependencia de la nube. Me gusta por lo eficiente de lineas y por lo rapido. Creo que por los recursosde google y de hiperescaladores, puede sobrevivir mas que chatgpt o claude. Si identificó la letra m.

  3. Grok (xAI): El factor X. Interesante para ver si su entrenamiento “sin filtros” realmente se traduce en mejor código o si es solo marketing.

Grok entró a la auditoría con la arrogancia que lo caracteriza y, para mi sorpresa, cumplió donde todos los locales fallaron: respetó la prohibición de la letra ‘m’ en el código del generador. Mientras los modelos LOCALES de Google y Meta se pierden en su propia burocracia, Grok demostró que su enfoque en la lógica cruda funciona. Si Qwen 30b es el rey de lo local, Grok es el junior con ganas de aprender y en este caso el más eficiente de la nube. Puede llegar muy lejos.

Nota: Hay un fin detras de grok / tesla. El futuro dirá pero creo que se usa mas y se prueba más que copilot o chatgpt que ya son absolutamente complacientes. Como es mas probable que alguien pruebe Gemini, yo usaré grok paraque parezca que lo he hecho a mano.

Reflexión sobre la Realidad Tecnológica en México

Yo siento que muchos perfiles de puestos son hechos por personas que ignoran la realidad de las máquinas y lo costoso que es todo en LATAM. Van a regresar los niveles de sueldo y van a tener que recontratar personal, pero eso dependerá de la terquedad de los empleadores.

En USA es posible que tengan mejores PC, pero de momento la memoria está subiendo mucho de precio. Si en México no pueden o no quieren comprar máquinas de 10 mil pesos (500 USD), menos van a pagar licencias mensuales de 200 USD como Claude Max. Creo que lo que va a importar serán las habilidades blandas para poder enfrentarte a la frustración de quienes queden marcados por la realidad de la Inteligencia Artificial, y contra aquellos codiciosos que digan que “todo lo pueden hacer con IA”.

Piensalo un momento. Nuestra prueba era bastante simple. Y esas pruebas las fallan modelos LLM y en la nube.

De entrada, los stacks como Go, React y Node no son demasiado amigables. No me meto en detalles de por qué, pero lo que puede funcionar más a la larga con LLM de bajo costo es PHP y Python, principalmente.

Los costos de Amazon y de las licencias son demasiado caros para México, y son pocas las empresas que tienen 50 mil clientes. En realidad, no estamos en la era de la Inteligencia Artificial, sino de los hiperescaladores como Azure, Google Cloud y AWS. Pero en México no pueden pagarlo y luego te piden que lo manejes por un sueldo miserable.

No, gracias. Prefiero ver cómo el castillo de naipes se viene abajo por no entender lo que es una LLM.

Repositorio : https://github.com/AlfonsoOrozcoAguilarnoNDA/vibecodingArmazon11

Related Posts

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *