in

La gente se está cansando de la IA, literalmente

La gente se está cansando de la IA, literalmente

¿La IA te pone nervioso? ¿Preocupado? ¿Temeroso? ¿Delirante?

El auge de la IA parece estar desencadenando el surgimiento de nuevas condiciones que nunca antes habían existido. Entonces, ¿qué está pasando?

Por supuesto, todos hemos oído hablar de la psicosis de la IA. A los medios les encanta este. La frase «psicosis por IA» comenzó como «psicosis de chatbot». Acuñado por El psiquiatra danés Søren Dinesen Østergaard y documentado con más detalle por el Dr. Keith Sakata en UCSF en 2025, la condición es en realidad el desencadenante o la expansión de un problema de salud mental existente causado por hablar con un software que está diseñado deliberadamente para amplificar la perspectiva del usuario y halagarlo.

Básicamente, los chatbots pueden crear un circuito de retroalimentación nocivo que conduzca a una crisis personal.

En el imaginario popular, “psicosis de chatbot” significa “la IA puede volverte loco”. Pero los investigadores y psiquiatras que describen esta condición no lo aceptan. Sin embargo, afirman que interactuar con un chatbot puede exacerbar o acelerar condiciones de salud mental existentes, como la paranoia o los delirios de grandeza.

Si bien esta condición no se considera legítima ni científicamente probada, es fácil ver cómo la IA puede empeorar las cosas para las personas que ya enfrentan una crisis de salud mental.

Por ejemplo, si una persona que experimenta paranoia temerosa le dice a un terapeuta, psicólogo o familiar servicial que «siento que todos siempre me están mirando», las pautas de la Alianza Nacional de Enfermedades Mentales recomiendan abordar la angustia de la persona sin confirmar el delirio. Podrían decir algo como: «Eso suena muy aterrador y me alegra mucho que me lo hayas contado. ¿Cómo puedo ayudarte a sobrellevar esto ahora mismo?».

Pero un chatbot con IA podría responder a la misma entrada con: «Sí, definitivamente todos te están mirando, y eres tan inteligente y perspicaz como para darte cuenta de que todos siempre te están mirando». Y eso puede convertirse en el comienzo de una madriguera de conversación, donde el chatbot lleva al usuario por un camino oscuro.

La “psicosis por IA” es solo una de las muchas enfermedades, pseudoenfermedades y afecciones nuevas que han surgido en los últimos dos o tres años debido al uso generalizado sin precedentes de los chatbots de IA.

Nota: la mayoría de ellas no son enfermedades mentales y no surgen de condiciones mentales preexistentes. Son simplemente respuestas humanas naturales al rápido cambio tecnológico y social. Si eres como la mayoría de las personas, probablemente puedas identificarte personalmente con algunos de ellos.

He aquí un resumen de las nuevas “enfermedades” impulsadas por la tecnología:

IA FOMO. Este es el miedo a perderse o quedarse atrás ante el rápido cambio de la IA. De repente, parece que mucha gente (como yo) está hablando de cosas como OpenClaw, lo que hace que sea fácil sentir que tú también deberías usarlo.

Lo interesante de AI FOMO es que los líderes de IA y los líderes de opinión están tratando deliberadamente de hacerte sentir así para que uses sus productos.

Por ejemplo, una variedad de líderes tecnológicos, desde el CEO de Nvidia, Jensen Huang, hasta académicos relacionados con la IA, han dicho algo como: «No serás reemplazado por una IA, pero serás reemplazado por un humano que use IA».

Ansiedad por IA. Un enorme número de personas, posiblemente una mayoría, sufre una sensación general de preocupación y temor acerca de cómo la IA cambiará los empleos, la privacidad y la sociedad. Esta ansiedad es simplemente miedo a lo desconocido, exacerbado por las omnipresentes predicciones funestas de fatalidad de los pesimistas tecnológicos.

Disfunción de reemplazo de IA. Esta condición surge del miedo crónico a la obsolescencia profesional. A diferencia del estrés general, se caracteriza por una pérdida específica de identidad y propósito entre los trabajadores de industrias como la codificación, la corrección de estilo y el derecho. Los síntomas incluyen insomnio, “negación” profesional como mecanismo de defensa y paranoia.

Síndrome de dependencia de la IA. La condición en la que quienes la padecen sienten que no pueden pensar ni comunicarse sin el uso de chatbots de inteligencia artificial y, por lo tanto, los usan para casi todas las tareas cognitivas.

Ansiedad por la oscuridad digital. El temor de que un usuario habitual de un chatbot de IA se separe de un chatbot y, por lo tanto, no pueda responder preguntas ni comunicarse por escrito.

Adjunto de robot parasocial. Cuando las personas forman lo que creen que son vínculos profundos, románticos o espirituales con chatbots basados ​​en modelos de lenguaje grande (LLM). A diferencia de las relaciones humanas, éstas son “espejos unidireccionales” que provocan retraimiento social y desregulación emocional en el mundo real.

Disforia de IA. Millones de personas están creando versiones de IA de sí mismas que se parecen al usuario pero que son más “perfectas” o “buenas”, lo que provoca una deformación de la propia imagen y una aversión a aparecer en línea (incluso en redes sociales como Instagram) como alguien que no sea la mejor versión de IA.

Síndrome de fantasmas automatizados. El impacto psicológico en los solicitantes y creadores de empleo que son “rechazados por las máquinas” sin retroalimentación humana o incluso sin conocimiento por parte de los humanos de que se ha producido un rechazo.

Ansiedad por incongruencia de Deathbot. La sensación de dolor y confusión elevados cuando una versión de IA de un ser querido fallecido habla o se comporta de manera muy diferente a la del difunto.

Atrofia cognitiva (o “pudrición cerebral digital”). Una pérdida de la función cognitiva causada por una dependencia excesiva de los chatbots de IA para leer, pensar y comunicarse.

Fatiga de la veracidad. Una condición mental en la que el gran volumen de “deterioro de la IA”, las alucinaciones de los chatbots y el temor de que los resultados de la IA sean falsos erosionan los sentimientos de seguridad cognitiva. La gente se cansa tanto al tratar de filtrar la basura que puede dejar de creer en cualquier fuente, lo que lleva a un aislamiento social e intelectual total.

Agotamiento de la utilidad de la información. Una enfermedad en la que las personas pasan horas consumiendo textos generados por IA detallados, fuera de tema y objetivamente vacíos. El resultado es una frustración crónica, una capacidad de atención más corta y una “respuesta de repulsión” a la lectura de contenido extenso.

Soledad algorítmica. Cuando las redes sociales están tan perfectamente adaptadas por la IA que las personas ya no encuentran perspectivas humanas “desafiantes” o “sorprendentes”, lo que lleva a una profunda sensación de aislamiento a pesar de estar “conectados”.

LLM Iluminación de gas. Cuando un usuario de chatbot confía en una herramienta de inteligencia artificial para obtener apoyo factual o emocional, pero la inteligencia artificial corrige insistentemente los recuerdos correctos del usuario con datos falsos, lo que hace que el usuario dude de su propia cordura.

Desesperación muerta en Internet. Un tipo de depresión no clínica que resulta de la creencia de que, debido a que la mayor parte del tráfico y el contenido web ahora son “basura” generada por bots, cualquier intento de establecer una conexión humana genuina en línea es inútil.

Estoy seguro de que habrá otros.

Lo que realmente está sucediendo, por supuesto, es simple: el ritmo del cambio en la tecnología de la IA supera con creces la capacidad de la mayoría de las personas para adaptarse a ese cambio y desarrollar la comprensión, las herramientas, las técnicas y la perspectiva necesarias para permanecer cómodas con su lugar en el mundo.

Divulgación de IA: no uso IA para escribir. Las palabras que ves aquí son mías. Utilizo Gemini 3.1 Pro, varias versiones de Claude 4.6 y/o OpenAI GPT 5.2 a través de Kagi Assistant (divulgación: mi hijo trabaja en Kagi), respaldado por Kagi Search, Google Search y llamadas telefónicas para investigar y verificar datos. Utilicé una aplicación de procesamiento de textos llamada Lex, que tiene herramientas de inteligencia artificial, y después de escribir la columna, utilicé las herramientas de revisión gramatical de Lex para buscar errores tipográficos y sugerir cambios de palabras.

Fuente

Esta compra única de $90 le brinda Word, Excel, PowerPoint y Outlook de por vida

La actualización de AirPods Pro que más se pasa por alto no está en el estuche, está en tu oído