La inteligencia artificial (IA) tiene un problema fundamental: no sabe decir “no sé”. En lugar de itir ignorancia, responde. No importa si la pregunta no tiene respuesta clara, si los datos no existen o si la mejor opción sería simplemente reconocer la falta de información. La IA genera una salida, porque así es como fue diseñada. No está programada para detenerse, sino para continuar, para completar, para llenar los espacios. No puede quedarse en silencio.
Este fenómeno no es una simple tendencia a la “alucinación”, entendida como la invención de datos erróneos. Es un problema estructural derivado del propio funcionamiento de los modelos de lenguaje. Estos sistemas, como GPT-3, GPT-4 y otros basados en arquitecturas similares, operan bajo un principio básico: predecir la siguiente palabra en una secuencia. Su entrenamiento se basa en grandes volúmenes de texto, y su tarea es identificar patrones para que, al recibir una entrada, puedan generar una respuesta plausible. Pero “plausible” no significa “correcta”. El sistema no sabe qué es verdad o mentira en un sentido humano, solo sabe qué palabras tienen una alta probabilidad de aparecer juntas según los datos que ha procesado. Y como no tiene la capacidad de evaluar realmente lo que sabe y lo que no, nunca se frena.
Este problema se manifestó de forma clara en herramientas de transcripción basadas en IA. Se implementaron sistemas que transforman audio en texto en el ámbito médico, y aunque su precisión es alta en condiciones ideales, presentan un problema recurrente cuando hay pausas en la conversación. Si un médico se detiene a pensar o un paciente toma su tiempo para responder, la IA no refleja ese silencio: lo llena. En algunos casos, inventa frases completas que jamás fueron dichas. No es un error aleatorio; los estudios demuestran que estas invenciones ocurren con mayor frecuencia cuando hay lapsos prolongados en el habla. Es como si el modelo no pudiera tolerar el vacío y, en lugar de dejar el espacio en blanco, lo reemplazara con una construcción propia.
¿Por qué ocurre esto? Porque la IA no tiene una noción real del tiempo o del contexto conversacional como lo tiene un ser humano. Un transcriptor humano, al escuchar una pausa, puede interpretarla correctamente: puede reconocer cuando alguien piensa, cuando duda o cuando simplemente decide no continuar una frase. En cambio, un modelo de IA ve la ausencia de palabras como una anomalía que debe corregir. Su programación no le permite aceptar el silencio; su única función es producir palabras, por lo que cualquier interrupción en el flujo es interpretada como una necesidad de completarlo.
El problema no se limita a la transcripción médica. Es un defecto generalizado en los sistemas de generación de texto. Cuando una IA responde con confianza a una pregunta para la cual no tiene datos suficientes, manifiesta la misma falla: en lugar de itir desconocimiento, elige la palabra más probable. Si en su entrenamiento encontró que una determinada combinación de palabras suele aparecer en un contexto determinado, la repetirá, sin importar si la información es precisa o si sería más prudente no decir nada.
Este fenómeno genera una ilusión de certeza que puede ser peligrosa. En ámbitos críticos, como la medicina o el derecho, una respuesta generada por IA podría inducir errores si los s confían demasiado en su aparente seguridad. Pero incluso en contextos más informales, esta incapacidad de la IA para reconocer sus límites refuerza la falsa percepción de que estos sistemas “saben” en el mismo sentido en que sabe un ser humano. No es así. La IA no razona, no duda, no pondera. Solo calcula probabilidades.
Corregir este problema no es trivial. No basta con reducir la tasa de errores o refinar los modelos para que “alucinen” menos. Lo que realmente se necesita es que estas inteligencias artificiales aprendan a evaluar su propio conocimiento, que sean capaces de marcar niveles de confianza en sus respuestas o, idealmente, que reconozcan cuándo es mejor no responder. En la comunicación humana, el silencio no es solo la ausencia de palabras, sino una señal significativa: de reflexión, de prudencia, de reconocimiento de límites. Hasta que la IA aprenda a callar, seguirá operando bajo una lógica defectuosa que la obliga a llenar vacíos que, muchas veces, no deberían ser llenados.
Las cosas como son
Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.