La ilusión del conocimiento: vibe coding y la erosión del juicio técnico

Vibe coding

Luces LED de colores, música lo-fi, una silla gamer y una atmósfera relajada. Comienza la jam session y es el momento de improvisar, pero en vez de música jazz lo que generamos es código. De hecho ni siquiera hay músicos, porque es la IA quien se encarga de todo. Es el vibe coding, donde el programador desaparece y la aplicación se crea de manera cuasi-intuitiva, indicándole a un LLM (Gran Modelo de Lenguaje) que toque aquí y toque allá.

Para esto se utilizan IDEs (editores) como Windsurf o Cursor, forks derivados de VSCode en los que los LLMs están integrados en el propio editor. Y no solo es que sugieran cambios al código, sino que pueden echarle un vistazo a los ficheros que tengamos abiertos para analizar y sugerir a tu base de código en su conjunto. Incluso podemos pedirles una funcionalidad, y harán todos los cambios necesarios a los ficheros, con la posibilidad de probar los cambios antes de aceptarlos. En la nube, el vibe coder tiene también Replit como opción.

A primera vista, todo esto parece una cosa maravillosa, especialmente si uno no sabe programar. Pero es un arma de doble filo, pues la calidad del código generado puede ser baja, contener errores, generar problemas de seguridad y vulnerabilidades, o no seguir las mejores prácticas. Confiar excesivamente en la IA sin comprender el código puede resultar bastante arriesgado, especialmente en proyectos a largo plazo y cuando hay que estructurar un proyecto de un tamaño razonablemente grande. El código puede convertirse en una bola de nieve inmantenible: la IA insiste en las mismas soluciones erróneas mientras el vibe coder, ajeno al contexto, no es capaz de corregirlas.

El rol de supervisor

Constatar estos problemas no significa oponerse a la IA, sino señalar un problema esencial, y es que la tendencia del vibe coding promueve un espejismo técnico y epistemológico, la peligrosa ilusión de la autonomía total de la IA, como si el desarrollador pudiera abdicar completamente de su rol de supervisor.

Utilizar una IA tipo LLM en el día a día al programar es toda una revolución, pero no es apretar un botón y olvidarse. Sí, uno tiene bajo su mando a un equipo hiperproductivo,… pero que desconoce el impacto de sus decisiones. Genera código velozmente, pero carece de intuición, de visión de producto, o de contexto real. Es decir, sin una capa crítica de supervisión, pruebas y recontextualización, estamos delegando la responsabilidad sin control. Es el jefe que firma informes sin leerlos, distraído por los LEDs y el lo-fi.

Pero si el supervisor no supervisa, aunque las cosas parezcan ir bien, tarde o temprano habrá un problema, y quizá para entonces sea demasiado grande. El desarrollador debe entender que, incluso cuando se apoya en un LLM, no puede saltarse su trabajo de supervisor. Que debe validar, auditar, y saber cuándo detener el flujo automático.

Delegación sin verificación

El núcleo del problema en los usos irresponsables de la IA es la delegación sin verificación. Y para verificar, hay que saber.

Cuando se utiliza IA para traducir, programar, escribir papers, analizar datos o generar diagnósticos médicos sin saber lo suficiente del campo, se está confiando en una caja negra que habla con total confianza, pero cuya verdad no es posible evaluar. Y esto, más que una colaboración, se convierte en fe.

El modelo clásico con el que nos relacionamos con la herramientas, supone que el humano entiende lo que pide y la herramienta realiza tareas subordinadas. El humano verificará entonces el resultado basándose en su comprensión del asunto.

Pero con una IA, es fácil acabar pidiendo cosas que no se entienden, y recibiendo resultados que suenan bien y cuya corrección no se puede juzgar… pero que se utilizan igualmente. Esto crea una ilusión de competencia sin comprensión, con un output fluido y convincente que simula autoridad, pero donde no hay una supervisión real.

Si le pedimos a la IA una traducción del chino, el resultado puede ser muy convincente. Puede resultarnos útil para entender un artículo, y abrirnos muchas puertas. Pero, ¿confiarías en una traducción del chino hecha por alguien que no sabe chino y que no puede verificar los errores culturales, legales o técnicos de la traducción? Para quien sabe chino, usar IA para acelerar una traducción es una gran idea; pero si desconoce el idioma, usarla para traducir un contrato legal es jugar a la ruleta rusa.

La IA es poderosa como extensión del conocimiento, pero frágil y peligrosa como sustituto de la comprensión. No es la mejor idea entonces utilizarla para tomar decisiones en campos que no se entiendan al menos superficialmente. Y allá donde resulte imposible, resulta esencial construir bucles de verificación externos consultando con humanos expertos o mediante herramientas capaces de validar los resultados.

Detrás de los LEDs y la música relajada, el vibe coding encubre un riesgo mayúsculo: la erosión del juicio humano en nombre de la eficiencia algorítmica.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio