jueves, enero 29, 2026

CUANDO UNA MÁQUINA EMPIEZA A ENSEÑARNOS A HABLAR

 


PODCAST

(Literatura digital)

Durante siglos, el lenguaje fue una obra colectiva, lenta, casi orgánica. Las palabras nacían en la calle, en el mercado, en la literatura, en la ciencia, en la conversación íntima. Mutaban por imitación, por error, por creatividad, por necesidad. Como decía Ferdinand de Saussure, es el habla cotidiana la que empuja a la lengua a transformarse.

Basta pensar en cómo una palabra cambia de sentido con el tiempo. Talento, por ejemplo, ya no designa solamente una aptitud o un don personal: hoy es un recurso empresarial, una categoría de gestión. El lenguaje no solo refleja el mundo: lo reorganiza.

La novedad —y aquí aparece la pregunta inquietante— es que tal vez por primera vez en la historia el motor de esa transformación ya no sea exclusivamente humano. ¿Qué sucede cuando millones de personas conversan a diario con una máquina que escribe, corrige, resume, ordena, sugiere, reformula?


Imitar sin darnos cuenta

Un estudio reciente del Instituto Max Planck analizó más de 280.000 presentaciones académicas en inglés de YouTube y encontró algo sorprendente: las personas comenzaron a incorporar en su habla palabras y estructuras típicas de los grandes modelos de lenguaje. Los investigadores hablan, con evidencia empírica, de un fenómeno de imitación lingüística hacia las IA .

Algunas palabras aumentaron su uso entre un 35% y un 51% en apenas un año y medio. No es que esas palabras sean incorrectas. El punto es otro: aparece un patrón de adopción colectiva que no nace de una comunidad humana, sino de un sistema algorítmico.

La lingüística conoce bien este mecanismo: acomodamos nuestro lenguaje al estándar dominante. Antes lo hacían los medios masivos; hoy lo hacen sistemas con los que dialogamos cotidianamente y que además nos ayudan a pensar y escribir . El proceso es silencioso. Nadie decide conscientemente “hablar como una IA”. Simplemente ocurre.


Las palabras no son inocentes

Esta discusión no es solo lingüística; es filosófica. J. L. Austin y Wittgenstein ya habían advertido que las palabras no solo describen el mundo: lo hacen. El lenguaje es performativo: crea acciones, produce efectos, construye realidades simbólicas.

No es lo mismo decir:

“Una empresa despidió a 200 personas para reducir costos”

que:

“Una empresa realizó un proceso de optimización de su estructura para mejorar la eficiencia”.

Ambas frases refieren al mismo hecho, pero generan mundos emocionales, morales y políticos distintos. El lenguaje no es neutral: siempre encuadra, interpreta, suaviza o intensifica .

Si una tecnología empieza a sugerir sistemáticamente ciertos encuadres, tonos y estructuras, su influencia ya no es técnica: es cultural.


La ilusión de la neutralidad

Las inteligencias artificiales no son objetivas. Son productos humanos: están entrenadas con datos seleccionados, con criterios de diseño, con sesgos explícitos o implícitos. No piensan: procesan regularidades estadísticas. Y esas regularidades reflejan culturas, idiomas dominantes, lógicas de poder.

Incluso cuando una IA habla español, muchas veces “piensa” en inglés y traduce. Eso no solo introduce palabras, sino también marcos conceptuales y formas de ordenar el pensamiento. El riesgo no es la incorporación de vocablos nuevos —eso siempre ocurrió— sino la importación silenciosa de estructuras cognitivas ajenas.


Homogeneización: claridad a cambio de fricción

Uno de los riesgos más interesantes que plantea el estudio es la posible reducción de la diversidad lingüística. No por censura, sino por comodidad e imitación. La IA tiende a privilegiar un registro medio: correcto, pulido, prolijo, uniforme.

Eso tiene ventajas evidentes: mejora la claridad, reduce ambigüedades, facilita la comprensión. Pero también tiene un costo: se pierde singularidad, acento, rareza, fricción creativa.

La creatividad suele nacer del desvío, del error, de la metáfora inesperada, de la palabra fuera de catálogo. Cuando todo se vuelve demasiado correcto, el pensamiento corre el riesgo de volverse demasiado homogéneo.


Lenguaje técnico, humanidad frágil

Otro fenómeno sutil es la “contaminación técnica” del lenguaje cotidiano. Empezamos a hablar de nosotros mismos como si fuéramos sistemas: optimizar la vida, resetear emociones, procesar duelos, funcionar mejor, tener input y output. Este vocabulario puede ser útil como metáfora, pero empobrece cuando reemplaza la complejidad afectiva, simbólica y narrativa de la experiencia humana.

La vida no es un software. La conciencia no se reinicia. El dolor no se optimiza. Se transita.


Lenguaje, memoria y aprendizaje

Aquí aparece una resonancia profunda con la medicina, la pedagogía y la neurociencia. Si una herramienta nos entrega rápidamente respuestas estructuradas, corremos el riesgo de perder el ejercicio del camino: la búsqueda, la duda, el ensayo, el error. Como ocurrió con la calculadora, el resultado llega, pero el proceso se debilita.

La memoria no se construye solo almacenando información, sino recorriendo activamente los caminos que la producen. Sin fricción cognitiva no hay aprendizaje profundo. Sin exploración no hay creatividad.


No es frenar la tecnología: es recuperar la conciencia

La conclusión del estudio es sensata y, paradójicamente, muy humana: no se trata de frenar la inteligencia artificial, sino de decidir conscientemente cómo queremos que influya en algo tan central como el lenguaje, que es una de las bases del pensamiento y de la cultura .

La tecnología no es el problema. El problema es cuando dejamos de observarla críticamente y la naturalizamos como si fuera neutra.

Tal vez el verdadero desafío no sea que las máquinas aprendan a hablar como nosotros, sino que nosotros no dejemos de hablar como humanos: con imperfecciones, metáforas, silencios, contradicciones, emoción, historia y memoria.

Porque, al final, no solo hablamos con palabras.
Hablamos con nuestra biografía.
Con nuestros vínculos.
Con nuestra conciencia.

Y eso —al menos por ahora— ninguna máquina puede imitar.

Fuente bibliográfica origina: María Josefina Lanzi. La Nación: 29/01/26. “Un estudio reveló que CHATGPT está moldeando tu forma de hablar…”

 



No hay comentarios.: