Con la llegada de la IA a las masas nos encontramos dos grupos de personas: los sensacionalistas que utilizan el miedo de “la IA nos va a quitar el trabajo” y los pragmáticos, que ven a la IA como otra herramienta más que debemos aprender a usar para mejorar nuestra productividad.
Personalmente, me siento bastante cómodo en el segundo grupo. Y cuanto más la uso, más claro tengo algo: la IA no te sustituye, te amplifica.
Dentro de los pragmáticos, empiezan a surgir conversaciones mucho más interesantes. Hace unos días leí un artículo de Geoffrey Huntley que me pareció especialmente acertado: LLMs are mirrors of operator skill. Su tesis es muy simple: los modelos de lenguaje (como ChatGPT, Claude, Gemini, etc.) no son magia, son espejos. Reflejan la habilidad de quien los utiliza.
La IA no te hace mejor, simplemente amplifica lo que ya eres
Huntley lo explica bien: alguien puede ser un excelente programador en 2024 y quedarse obsoleto en 2025 si no aprende a trabajar bien con IA. Saber usar un LLM de forma efectiva es ya parte del skillset profesional. No es tanto “saber prompt engineering” (que también), sino entender cómo interactuar, cómo explorar, cómo guiar al modelo para obtener resultados de calidad.
Es como tener un copiloto superpotente: si sabes adónde vas, te lleva más rápido; si no tienes ni idea, sólo vas a dar vueltas.
Las entrevistas técnicas están rotas (y no por culpa de la IA)
Otro punto muy interesante del artículo es cómo la IA ha roto los procesos de selección tradicionales en el mundo tech. Los ejercicios de código en entrevistas son fácilmente resolubles por cualquier LLM moderno. Encima, ya existen herramientas para hacer trampas durante las entrevistas en remoto, añadiendo aún más ruido al proceso.
¿La solución? Geoffrey propone algo muy sensato: no prohibir la IA durante las entrevistas, sino observar cómo el candidato trabaja con ella. Ver cómo “baila” con el modelo. ¿Hace las preguntas correctas? ¿Sabe cómo estructurar la conversación con el LLM? ¿Sabe iterar, depurar, criticar el output? ¿Tiene criterio? En definitiva: ¿sabe pensar?
Evaluar el skill real en la era IA
Me gustó especialmente el listado de señales que propone para identificar a alguien con buen dominio de IA:
-
Que conozca los modelos y sus diferencias.
-
Que haya construido proyectos reales usando LLMs.
-
Que haya desarrollado sus propios sistemas de prompts o agentes.
-
Que pueda explicar el código que genera, criticarlo y mejorarlo.
-
Que use la IA como un colaborador inteligente, no como un generador automático de líneas de código.
Y lo más importante: que muestre curiosidad y ganas de profundizar.
Porque al final, el verdadero skill no es tener todas las respuestas, sino saber cómo encontrarlas, cómo formularlas y cómo iterar sobre ellas.
¿El problema? Escalar este tipo de entrevistas es muy caro
El gran reto es que observar a alguien “bailar con la IA” requiere tiempo y personas cualificadas para evaluar. No es un sistema fácil de escalar para entrevistas masivas, y ahí es donde los procesos de selección todavía no han encontrado el equilibrio.
Conclusión
La IA no nos va a quitar el trabajo. Pero sí va a separar mucho más claramente a los que saben adaptarse y aprender de los que esperan que todo siga como antes. Los LLMs no son el enemigo: son el espejo que nos dice, sin filtros, si estamos preparados para esta nueva etapa o no.