Durante décadas, todos hemos estado prestando atención a la economía de la atención.
Ese concepto económico y modelo de negocio ve el contenido en línea como un recurso ilimitado. Su consumo está limitado únicamente por la capacidad mental de las personas, lo que implica una competencia global por el recurso finito y valioso de la atención humana.
La idea de la economía de la atención explica por qué empresas como Meta se ven a sí mismas compitiendo no sólo con otros sitios sociales como TikTok, X o YouTube, sino también con libros, obras de teatro y paseos por la naturaleza, cualquier cosa que capte la atención de la gente.
Debido a que la atención es limitada, la única manera de crecer es ser mejor atrayendo la atención. Y ese modelo simple es la razón por la cual las redes sociales están llenas de cebos de ira, desechos de inteligencia artificial, memes, pornografía y discursos de odio. El negocio de las redes sociales no está incentivado a priorizar el contenido “bueno”, sino sólo el contenido que llame la atención.
En el paradigma de la economía de la atención, la atención humana es una moneda con valor monetario que la gente «gasta». Cuanto más una empresa como Meta pueda lograr que las personas «presten» su atención en Instagram o Facebook, más éxito tendrá esa empresa. Por eso, los algoritmos se diseñan deliberadamente (y se rediseñan constantemente) para maximizar el tiempo que la gente presta atención a las redes sociales. Las nuevas funciones están diseñadas específicamente para aumentar el tiempo que los usuarios dedican a los metaservicios en lugar de a otras cosas. Por ejemplo, el tiempo promedio dedicado a Instagram aumentó un 24% después del lanzamiento de Reels, lo que lo convirtió en un gran éxito para la empresa.
Meta capta un promedio de 18 horas y 44 minutos de atención por mes debido a sus incesantes ajustes para captar la atención. Pero eso es ni cerca del líder de la economía de la atenciónTikTok, que recibe una media de 34 horas y 15 minutos de atención al mes.
Es por eso que Meta está tan obsesionado ahora con la IA en sus plataformas sociales.
Aumento de la economía del apego
Tristan Harris, del Center for Humane Technology, acuñó la frase “economía del apego”, que critica como la “próxima evolución” del modelo de tecnología extractiva; ahí es donde las empresas utilizan tecnologías avanzadas para mercantilizar la capacidad humana de formar vínculos de apego con otras personas y mascotas.
En agosto, la idea comenzó a ganar fuerza en los círculos empresariales y académicos con una Entrada del blog de la Escuela de Economía y Ciencias Políticas de Londres titulado «¿Los seres humanos dependen emocionalmente de la IA? Bienvenidos a la economía del apego», por la Dra. Aurélie Jean y el Dr. Mark Esposito.
Meta ha introducido cuentas totalmente generadas por IA diseñadas para coexistir con cuentas personales creadas por personas reales. La compañía lanzó «AI Studio» para permitir que los influencers se clonen a sí mismos con versiones de IA de sí mismos. (Es revelador, Meta está pausando temporalmente el acceso a personajes de IA para adolescentes en sus plataformas, incluidas Instagram y WhatsApp, antes de un ensayo que analizará los daños y la adicción que pueden causar los sitios de redes sociales).
La adopción de la IA por parte de la empresa puede explicarse por la emergente economía del apego. Si bien las publicaciones sociales, los memes, los reels y las historias atraen la atención, la IA puede hacer que los usuarios formen vínculos emocionales.
Un estudio alemán reciente encontró que las personas Puede desarrollar una mayor cercanía emocional con la IA que con otras personas. — pero sólo si no saben que están interactuando con un chatbot Aún así, incluso cuando las personas saben que los chatbots no son humanos, pueden apegarse de manera nociva.
A fines del año pasado, un hombre de Virginia llamado Jon Ganz desapareció en un caso de alto perfil atribuido a “psicosis por IA”, donde su vida se desmoronó después de que una obsesión con un chatbot llevó a su desaparición. También en 2025, los padres de un chico de California de 16 años demandaron a OpenAI después de que este se suicidara tras conversaciones con un chatbot sobre el suicidio.
Algunas personas afirman tener relaciones o matrimonios con chatbots de IA.
Ahora bien, los proveedores de chatbots de IA no pretenden provocar “psicosis de IA”, suicidio o matrimonios entre humanos y software, pero sí pretenden provocar apego. Es por eso que estas empresas utilizan estrategias psicológicas, ajustes técnicos y opciones de diseño para que sus productos parezcan más «humanos». Les dan a los chatbots personalidades e identidades distintas, voces y patrones de habla parecidos a los humanos, sentido del humor y alegría, y una capacidad ilimitada para la adulación y la adulación.
Desde hace unos 2 millones de años hasta este milenio, la interacción con el habla y el lenguaje era competencia exclusiva de las personas. Nuestros cerebros están optimizados para percibir, comprender y responder al habla humana. Entonces, cuando conversamos con electrodomésticos o aplicaciones, nuestros cerebros paleolíticos piensan que estamos interactuando con otro ser humano.
Y ese es un modelo de negocio. Ha surgido una categoría de productos y servicios de IA que anuncian “relaciones” con chatbots, incluidos Replika, Kindroid, Nomi.aiEVA AI y Candy AI.
Otras ofertas prometen amistad, pero no necesariamente un compromiso “romántico”. Esta lista incluye a Kuki, Personaje.aiAnima y el modo “amigo” de Replika.
Nuestra supervivencia como especie siempre ha dependido de nuestra sociabilidad. Esto incluye nuestro cuidado por los demás, compartir comida, formar amistades, relaciones amorosas, empatía y, ¡lo adivinaste! – adjunto.
Ésta es la razón por la que los chatbots hablan e interactúan como personas: porque el objetivo es el apego.
Creo que esta es también la justificación tácita de los robots humanoides, como ya he escrito antes en este espacio. (La justificación hablada es que los robots humanoides pueden operar en espacios diseñados para personas).
Como en ese artículo, detallé cómo los fabricantes de robots humanoides engañan deliberadamente a las personas para que asuman falsamente que estos productos tienen una cognición similar a la humana. Los estudios muestran que el contacto visual y las señales emocionales de los robots pueden desencadenar respuestas de vinculación y empatía en los humanos que son similares a las que surgen al interactuar con las personas.
El principal beneficio (para las empresas que los venden) o problema (para la humanidad) de los robots humanoides es su impacto psicológico en las personas. Están diseñados para «piratear» cerebros humanos y engañar a los usuarios para que traten a las máquinas como seres sintientes y formen vínculos.
Lo mismo ocurre con las mascotas basadas en IA. El robot Moflin de Casio es un compañero de IA que desarrolla una personalidad única y simula afecto. Ofrece la gratificación de tener una mascota sin la mascota real.
El aumento de la tecnología que genera vínculos es similar al aumento de las suscripciones. Si bien publicar un artículo o un video de YouTube puede llamar la atención, es mejor lograr que las personas se suscriban a un canal o boletín informativo. Es “pegajoso”, asegurando no sólo la atención ahora, sino también la atención en el futuro.
Asimismo, la economía del apego es la versión “pegajosa” de la economía de la atención.
A diferencia de los modelos de suscripción de contenidos, la idea del apego causa un daño real. Amenaza la conexión humana genuina al proporcionar una alternativa más fácil, fomentar dependencias emocionales adictivas de la IA y explotar las vulnerabilidades de las personas con problemas de salud mental.
Si bien la economía de la atención todavía está entre nosotros, está surgiendo una tendencia mucho más potente y peligrosa en la que las empresas pretenden secuestrar nuestra humanidad para que sigamos usando sus productos.
Divulgaciones de IA: utilicé Gemini 3 Pro a través de Kagi Assistant (divulgación: mi hijo trabaja en Kagi), así como Kagi Search y Google Search para verificar este artículo. Utilicé un producto de procesamiento de textos llamado Lex, que tiene herramientas de inteligencia artificial, y después de escribir la columna, utilicé las herramientas de revisión gramatical de Lex para buscar errores tipográficos y sugerir cambios de palabras.


