PODCAST
(Literatura digital)
Durante siglos,
el lenguaje fue una obra colectiva, lenta, casi orgánica. Las palabras nacían
en la calle, en el mercado, en la literatura, en la ciencia, en la conversación
íntima. Mutaban por imitación, por error, por creatividad, por necesidad. Como
decía Ferdinand de Saussure, es el habla cotidiana la que empuja a la lengua a transformarse.
Basta pensar en
cómo una palabra cambia de sentido con el tiempo. Talento, por ejemplo,
ya no designa solamente una aptitud o un don personal: hoy es un recurso
empresarial, una categoría de gestión. El lenguaje no solo refleja el mundo: lo
reorganiza.
La novedad —y
aquí aparece la pregunta inquietante— es que tal vez por primera vez en la
historia el motor de esa transformación ya no sea exclusivamente humano.
¿Qué sucede cuando millones de personas conversan a diario con una máquina que
escribe, corrige, resume, ordena, sugiere, reformula?
Imitar sin darnos cuenta
Un estudio
reciente del Instituto Max Planck analizó más de 280.000 presentaciones
académicas en inglés de YouTube y encontró algo sorprendente: las personas
comenzaron a incorporar en su habla palabras y estructuras típicas de los
grandes modelos de lenguaje. Los investigadores hablan, con evidencia empírica,
de un fenómeno de imitación lingüística hacia las IA .
Algunas
palabras aumentaron su uso entre un 35% y un 51% en apenas un año y medio. No
es que esas palabras sean incorrectas. El punto es otro: aparece un patrón
de adopción colectiva que no nace de una comunidad humana, sino de un sistema
algorítmico.
La lingüística
conoce bien este mecanismo: acomodamos nuestro lenguaje al estándar dominante.
Antes lo hacían los medios masivos; hoy lo hacen sistemas con los que
dialogamos cotidianamente y que además nos ayudan a pensar y escribir . El
proceso es silencioso. Nadie decide conscientemente “hablar como una IA”. Simplemente ocurre.
Las palabras no son inocentes
Esta discusión
no es solo lingüística; es filosófica. J. L. Austin y Wittgenstein ya habían
advertido que las palabras no solo describen el mundo: lo hacen. El lenguaje es
performativo: crea acciones, produce efectos, construye realidades simbólicas.
No es lo mismo
decir:
“Una empresa
despidió a 200 personas para reducir costos”
que:
“Una empresa
realizó un proceso de optimización de su estructura para mejorar la
eficiencia”.
Ambas frases
refieren al mismo hecho, pero generan mundos emocionales, morales y políticos
distintos. El lenguaje no es neutral: siempre encuadra, interpreta, suaviza o
intensifica .
Si una tecnología
empieza a sugerir sistemáticamente ciertos encuadres, tonos y estructuras, su
influencia ya no es técnica: es cultural.
La ilusión de la neutralidad
Las
inteligencias artificiales no son objetivas. Son productos humanos: están
entrenadas con datos seleccionados, con criterios de diseño, con sesgos
explícitos o implícitos. No piensan: procesan regularidades estadísticas. Y
esas regularidades reflejan culturas, idiomas dominantes, lógicas de poder.
Incluso cuando
una IA habla español, muchas veces “piensa” en inglés y traduce. Eso no solo
introduce palabras, sino también marcos conceptuales y formas de ordenar el pensamiento.
El riesgo no es la incorporación de vocablos nuevos —eso siempre ocurrió— sino
la importación silenciosa de estructuras cognitivas ajenas.
Homogeneización: claridad a cambio de fricción
Uno de los
riesgos más interesantes que plantea el estudio es la posible reducción de la
diversidad lingüística. No por censura, sino por comodidad e imitación. La IA
tiende a privilegiar un registro medio: correcto, pulido, prolijo, uniforme.
Eso tiene
ventajas evidentes: mejora la claridad, reduce ambigüedades, facilita la
comprensión. Pero también tiene un costo: se pierde singularidad, acento,
rareza, fricción creativa.
La creatividad
suele nacer del desvío, del error, de la metáfora inesperada, de la palabra
fuera de catálogo. Cuando todo se vuelve demasiado correcto, el pensamiento
corre el riesgo de volverse demasiado homogéneo.
Lenguaje técnico, humanidad frágil
Otro fenómeno
sutil es la “contaminación técnica” del lenguaje cotidiano. Empezamos a hablar
de nosotros mismos como si fuéramos sistemas: optimizar la vida, resetear
emociones, procesar duelos, funcionar mejor, tener input y output. Este
vocabulario puede ser útil como metáfora, pero empobrece cuando reemplaza la
complejidad afectiva, simbólica y narrativa de la experiencia humana.
La vida no es
un software. La conciencia no se reinicia. El dolor no se optimiza. Se transita.
Lenguaje, memoria y aprendizaje
Aquí aparece
una resonancia profunda con la medicina, la pedagogía y la neurociencia. Si una
herramienta nos entrega rápidamente respuestas estructuradas, corremos el
riesgo de perder el ejercicio del camino: la búsqueda, la duda, el ensayo, el
error. Como ocurrió con la calculadora, el resultado llega, pero el proceso se debilita.
La memoria no
se construye solo almacenando información, sino recorriendo activamente los
caminos que la producen. Sin fricción cognitiva no hay aprendizaje profundo.
Sin exploración no hay creatividad.
No es frenar la tecnología: es recuperar la conciencia
La conclusión
del estudio es sensata y, paradójicamente, muy humana: no se trata de frenar la
inteligencia artificial, sino de decidir conscientemente cómo queremos que
influya en algo tan central como el lenguaje, que es una de las bases del
pensamiento y de la cultura .
La tecnología
no es el problema. El problema es cuando dejamos de observarla críticamente y
la naturalizamos como si fuera neutra.
Tal vez el
verdadero desafío no sea que las máquinas aprendan a hablar como nosotros, sino
que nosotros no dejemos de hablar como humanos: con imperfecciones, metáforas,
silencios, contradicciones, emoción, historia y memoria.
Porque, al
final, no solo hablamos con palabras.
Hablamos con nuestra biografía.
Con nuestros vínculos.
Con nuestra conciencia.
Y eso —al menos
por ahora— ninguna máquina puede imitar.
Fuente bibliográfica origina: María Josefina Lanzi. La Nación: 29/01/26. “Un estudio reveló que CHATGPT está moldeando tu forma de hablar…”











