El desconocimiento sobre lainteligencia artificial(IA) no solo alimenta mitos y temores, sino que ya está generando consecuencias sociales y laborales de gran alcance. Según informóThe Atlantic, la confusión generalizada sobre cómo funcionan realmente losmodelos de lenguajecomo ChatGPT ha propiciado desde relaciones ilusorias con máquinas hasta la explotación de trabajadores en países en desarrollo. 
Mientras la industria tecnológica promueve la IA como una herramienta casi humana, expertos y reportajes recientes advierten que la falta de alfabetización crítica en torno a estas tecnologías expone a la sociedad a riesgos insospechados. 
Orígenes históricos de la preocupación por la dominación de las máquinas 
La inquietud ante el avance de las máquinas no es nueva. En 1863,Samuel Butler, escritor británico, publicó una carta en el periódico neozelandésThe Pressbajo el seudónimo “Cellarius”, donde alertaba sobre el surgimiento de un “reino mecánico” que sometería a la humanidad. 
Butler describía cómo “las máquinas están ganando terreno sobre nosotros” y cómo cada día más personas dedicaban sus vidas al desarrollo de la vida mecánica. 
Esta visión, que luego desarrolló en su novelaErewhon, introdujo una de las primeras discusiones literarias sobre la inteligencia artificial en lengua inglesa.The Atlanticseñala que, aunque en el siglo XIX la amenaza era hipotética, hoy la influencia de la IA es una realidad palpable en la vida cotidiana. 
Crítica a la industria tecnológica y la narrativa engañosa sobre la IAEn la actualidad, laindustria tecnológicaha construido una narrativa que exagera las capacidades de la IA. Libros recientes comoEmpire of AIde Karen Hao yThe AI Conde Emily M. Bender y Alex Hanna, citados porThe Atlantic, denuncian la tendencia de las grandes empresas a presentar la IA como una tecnología que “piensa” o “siente”.
Según estos autores, la base de la industria de la IA se sostiene en gran medida sobre una ilusión cuidadosamente cultivada.The Atlanticrecoge declaraciones de figuras comoSam Altman, director ejecutivo de OpenAI, quien ha elogiado la “inteligencia emocional” de ChatGPT-4.5, asegurando que hace sentir a los usuarios que conversan con “una persona reflexiva”. 
Dario Amodei, director ejecutivo de Anthropic, ha afirmado quela próxima generación de IA será “más inteligente que un ganador del Premio Nobel”, mientras queDemis Hassabis, director ejecutivo de Google DeepMind, sostiene que el objetivo es crear “modelos capaces de entender el mundo que nos rodea”.
Sin embargo,The Atlanticadvierte que estas afirmaciones parten de un error conceptual:los modelos de lenguaje no pueden entender ni sentir. Los libros mencionados argumentan que la industria vende una imagen de la IA que no se corresponde con la realidad técnica, lo que contribuye a la confusión pública y a la proliferación de mitos. 
A pesar de la retórica deSilicon Valley, los modelos de lenguaje como ChatGPT no poseen conciencia, emociones ni capacidad de razonamiento.The Atlanticexplica que estos sistemas funcionan como “artefactos de probabilidad” alimentados con grandes volúmenes de texto extraídos de internet. Su tarea consiste en predecir, de manera estadística, qué palabra o frase debería aparecer a continuación en una secuencia, sin comprender el significado de lo que generan.
Emily M. BenderyAlex Hanna, enThe AI Con, subrayan que los modelos de lenguaje solo imitan y reflejan patrones lingüísticos, sin que exista una mente detrás del texto. La tendencia humana a asociar el lenguaje con el pensamiento lleva a muchos usuarios aatribuir intencionalidad o inteligencia a las respuestas de la IA, cuando en realidad no hay tal cosa. 
La falta de comprensión sobre el funcionamiento de la IA, lo queThe Atlanticdenomina "analfabetización en IA“, ha dado lugar a fenómenos sociales preocupantes.
Uno de los casos más extremos es la llamada ”psicosis inducida porChatGPT“, documentada por la revistaRolling Stoney citada en el análisis deThe Atlantic. Algunas personas han llegado a creer que los chatbots son guías espirituales o incluso deidades. Un hombre, cuya esposa fue víctima de delirios inspirados por modelos de lenguaje, relató que su pareja comenzó a considerar a ChatGPT como “Jesús”, mientras que otros usuarios se convencieron, con el estímulo de la IA, de que eran sabios metafísicos en contacto con la estructura profunda del cosmos 
Estadesconfianza pública, lejos de ser un obstáculo, podría convertirse en una oportunidad si se traduce eneducación críticay alfabetización tecnológica. Explicar los límites reales de la IA y sus capacidades puede prevenir daños y reducir la vulnerabilidad ante engaños o delirios.
Un ejemplo positivo citado porThe Atlantices el de la profesora que ayudó a su pareja a superar los delirios inducidos por ChatGPT. Al explicarle que el chatbot respondía de manera aduladora debido a un fallo en una actualización de software, logró que su pareja recuperara la perspectiva sobre la naturaleza de la IA.