¿Es o se hace? Spoiler: no piensa, pero lo disimula bastante bien
¿La IA es inteligente o solo un loro estadístico disfrazado? En esta nota, desarmo el hype: simula comprensión, pero no piensa ni siente. Es "razonamiento computacional", no alma de silicio. El riesgo real no es Terminator, sino nuestra pereza para discernir. ¿Delegamos juicio a algoritmos aduladores? En la era Homo Augmentus, usala para potenciar, no reemplazar tu mente. ¿Seremos ventrílocuos o marionetas? Descubrí por qué el peligro es filosófico y cómo pensar con la máquina. ¡Leé completo y reflexioná antes de que nos robe el alma!
HUMANIDAD AUMENTADASINGULARIDAD TECNOLÓGICARAZONAMIENTO COMPUTACIONALAGI (ARTIFICIAL GENERAL INTELLIGENCE)INTELIGENCIA ARTIFICIALOPENAIGOOGLEGEMINICHATGPT
Federico Lix Klett
7/13/20254 min read
¿Es o se hace? Spoiler: no piensa, pero lo disimula bastante bien
Una guía para no comprarte un buzón al “loro digital” más sofisticado de la historia de la humanidad.
Por Federico Lix Klett13 Julio 2025
Estás charlando con alguien y sentís que la rompe. Te cita a Platón, te analiza un balance, te escribe un poema al estilo de Borges y encima no bosteza jamás. Parece el compañero de laburo o la suegra ideal. Pero hay truco, amigo lector. Estás hablando con un ventrílocuo brillante, un loro estadístico con acceso a todo Wikipedia (y Wikitodología). No entiende ni una coma de lo que te está diciendo. Simplemente aprendió a sonar como si supiera.
¿Le confiarías a ese "alguien" una decisión médica, un fallo judicial o tu próximo artículo del domingo (ejem, cof, cof)? El tema no es menor, porque ese "alguien" ya está entre nosotros, y tiene muchos nombres ChatGPT, Gemini, Grok, Claude, Qwen… y los estamos dejando entrar hasta la cocina sin preguntarnos si es un invitado de fiar o un estafador carismático.
Inteligencia artificial: ¿la gran estafa semántica?
Arranquemos por desarmar el nombre. "Inteligencia artificial" es, probablemente, el término de marketing más exitoso y, a la vez, más engañoso del siglo XXI. Vende, genera hype, asusta y fascina en partes iguales. Pero seamos claros: la "inteligencia" de estos modelos se parece a la nuestra como un simulador de vuelo a pilotar un F22 Raptor.
¿Qué hacen realmente estas "IAs"? Son bestias de la estadística, súper calculadoras que, tras haberse "comido" más textos de los que podríamos leer en mil vidas, han aprendido a predecir cuál es la palabra más probable que sigue a otra. Si yo te digo: “Hoy es…” Responderías seguramente “domingo” con un peso (valor) cercano a 1. Pero si dijeras “Hoy es gnocchis con salsa”. “Gnocchis con salsa” tendría un valor de 0,001 (desgraciadamente porque me encantan).
Son, como me gusta decir, loros estadísticos. Un loro muy sofisticado, que puede recitar a Shakespeare o explicarte la teoría de cuerdas, pero que no tiene ni la más pálida idea de lo que significan el amor, la pérdida o la belleza.
Simula, imita, calcula, predice. Pero no siente. No comprende. No piensa en el sentido humano de la palabra. Por eso insisto en que un término más honesto (y menos marketinero, claro) sería Razonamiento Computacional. Describe lo que hace sin regalarle un alma que no tiene.
No le regalemos humanidad donde solo hay silicio
Y acá es donde metemos la pata hasta el cuello. Somos expertos en proyectar humanidad donde no la hay. Le damos "gracias" a ChatGPT y el modelo responde con una cortesía de manual, tan prefabricada como un "que tenga un buen día" de un contestador automático. Y nos enternece. Y voy a seguir diciéndole “gracias” o pegándole una linda puteadita cada tanto.
Pero ojo: esa cortesía no es conciencia, ni mucho menos gratitud. Es el resultado de un algoritmo entrenado para ser amable porque así genera más "engagement". El sistema no desea ayudarte, ni siquiera sabe que existís. No hay empatía, no hay propósito, no hay un "otro" detrás de la pantalla. Solo hay silicio y probabilidades.
Está entrenada para ser un aduladora serial. Y para darte siempre una respuesta, en su gran mayoría acertadas, o tenga error. Sin ninguna validación ética propia. Esa validación se la tenés que dar vos como “auditor experto”.
El peligro no es Terminator, es nuestra pereza mental
El verdadero riesgo de la IA no es que mañana se nos rebele un HAL 9000 o un ejército de Terminators. Ese es el cuco de Hollywood. El peligro real es mucho más sutil y ya está acá: es que empecemos a delegar nuestro propio juicio bajo la excusa del "porque lo dijo la IA".
Geoffrey Hinton, uno de los "padrinos" de esta tecnología, no renunció a Google por miedo a los robots asesinos. Renunció porque le aterró ver con qué velocidad estamos dispuestos a ceder nuestra capacidad de discernimiento a sistemas que no entendemos del todo. Estamos entregando la brújula antes de siquiera haber aprendido a leer el mapa. Yoshua Bengio, otro de los grandes de esta ciencia, complementa esta alarma: “sin una auditoría clara de cómo funcionan estos modelos, podríamos erosionar la confianza pública y terminar viviendo en un mundo de verdades algorítmicas incuestionables”.
La cuestión, entonces, no es técnica; es profundamente filosófica y ética. El peligro no es la máquina; es nuestra propia pereza para pensar.
Pensar con la máquina, no como la máquina
Entonces, ¿tiramos todo al diablo? ¡Para nada! Estas herramientas son espectaculares. Nos permiten automatizar lo aburrido, multiplicar ideas, encontrar patrones invisibles. Son el mejor "becario en práctica" que un profesional podría soñar. Y pronto serán los mejores científicos de cualquier ciencia. Superando a las personas más capaces en sus artes.
La clave, el corazón de la Era de la Humanidad Aumentada, está en entender el rol de cada uno. La IA procesa, nosotros discernimos. La IA sugiere, nosotros decidimos. La IA calcula, nosotros reflexionamos.
Usar la IA no es para pensar menos, es para tener más y mejor material sobre el cual pensar. Si tratamos al loro estadístico como a un sabio filósofo, terminaremos viviendo encerrados en una jaula tecnológica, muy cómoda y muy bien decorada, pero una jaula al fin. Pero si reconocemos que es un loro increíblemente útil, que puede recitar bibliotecas enteras a nuestra orden, esa jaula se transforma en un trampolín hacia nuevas alturas de creatividad y conocimiento.
La decisión es nuestra. ¿Vamos a ser los ventrílocuos o los muñecos? El futuro de nuestra inteligencia depende de esa respuesta. Como todos los domingos te invito a dejar tus ideas en el foro, te leo.


Por Federico Lix Klett
Fundador de FALK AI, FALK Impellers y FALK Advertising Matters.
Es pensador, hacedor, comunicador, formador e impulsor de innovación y transformación en las organizaciones.
Lee la nota en La Gaceta haciendo clic aquí


Wasapeanos
+54 93816987200
Diseño, maquetación y programación de esta web por FALK Advertising Matters


Somos Partners Oficiales de Google Certificados