De los Pollos Congelados a Inteligencia Artificial
¿Por qué la estrategia de calidad no se puede automatizar?
⚠️ Este artículo contiene palabras altisonantes que pueden herir susceptibilidades. Se recomienda discreción.
Existe una historia fascinante en la industria aeroespacial que todo director de tecnología, producto o innovación debería conocer.
Para probar la resistencia de los motores de los aviones frente a impactos de aves en pleno vuelo, los ingenieros utilizaban cañones de pollos (Chicken guns) que disparaban aves congeladas a las hélices.
El objetivo no era sólo desperdiciar presupuesto en algo estúpidamente divertido, aunque aún dudo que fuera parte de la idea original, sino validar un escenario crítico de vida o muerte.
Recientemente, en una charla para mi podcast Disertaciones Tecnológicas, Josh Mendoza -CEO de IT Reboot y experta con más de 20 años en Calidad- nos enseñó esta parte de la historia de la industrea aeroespacial para recordarnos una verdad incómoda: Sí puedes automatizar el disparo del pollo, pero no puedes automatizar la decisión de por qué, cuándo y hacia dónde dispararlo.
En 2026, mientras las empresas corren desesperadas, como pollos sin cabeza, por integrar IA Generativa en cada rincón de su arquitectura, estamos olvidando que la velocidad sin criterio solo nos lleva más rápido al desastre.
La Ley de la Conservación de la Mierda
Es bien sabido que los de espíritu innovador pecamos de optimismo tecnológico, una especie de prisa u obsesión por automatizar procesos. Por eso existe un principio muy pragmático que los que me conocen bien saben que me gusta citar: Si tienes un proceso que genera mucho dinero pero, aunque sea, un poco de mierda y le pones un motor, sí, vas a generar dinero, pero también generarás mucha mierda. Y a veces la limpieza de esa mierda puede costar más que el dinero que estás generando
Josh lo explicaba con claridad: la IA nos está haciendo huevones. Al delegar la creación de matrices de prueba a un LLM sin un análisis profundo del contexto de negocio, estamos transformando a los departamentos de QA que, como su nombre lo dice, son quienes aseguran el valor, en simples Testers, que sólo ejecutan sin pensar.
Si tu proceso de desarrollo tiene “mierda” (deuda técnica, requerimientos ambiguos, falta de lógica de negocio), la IA no la va a limpiar; la va a escalar.
El sesgo de la “Cajita Feliz” tecnológica
Es tentador creer que herramientas como Copilot o Gemini pueden probarlo todo. Pero la realidad técnica es distinta. Como bien señala Mendoza, la IA es excelente para lo genérico (un formulario de login, un flujo estándar), pero falla estrepitosamente en lo complejo:
Logística en tiempo real: ¿Cómo prueba una IA una unidad en movimiento enviando 5,000 coordenadas por minuto a través de una geocerca?
Datos vectorizados: Los LLMs alucinan porque están programados para no admitir que no saben algo.
La verdadera calidad corporativa reside en el Edge Case, en lo que la IA no puede imaginar porque nunca ha ocurrido. “La IA no inventa nada nuevo”, me decía Josh, “sólo repite lo que la humanidad ya expuso en Internet”.
La IA no inventa nada nuevo, sólo repite lo que la humanidad ya expuso en Internet
La Calidad como Postura Política (y Ética)
Uno de los puntos más fuertes de nuestra conversación fue el rol del líder de calidad frente al C-Suite. Josh mencionaba un momento crítico en su carrera donde le dijeron: “No me gusta que me digas la verdad”.
Como experto en estrategia tecnológica, para mi es una red-flag si alguien dice eso, pero es más común de lo que parece, al menos esa persona dedía lo que pensaba, muchos sólo lo piensan.
La calidad no es un “costo” en el balance general; es una póliza de seguro contra la destrucción de la reputación. En un mundo donde los chatbots irresponsables pueden comprometer la ciberseguridad o filtrar datos privados, implementar IA sin una estructura de QA responsable es, simplemente, negligencia profesional.
El regreso al criterio humano
La paradoja de la IA en 2026 es que, cuanto más automatizamos, más valiosa se vuelve la capacidad analítica humana. Necesitamos arquitectos de soluciones humanas que usen la IA para eliminar lo repetitivo, pero que guarden su energía para lo que realmente importa: la creatividad y el juicio crítico.
Como líderes, nuestro trabajo no es solo comprar la herramienta más rápida, sino asegurarnos de que la Chicken Gun esté apuntando al lugar correcto.












