Un estudio advierte de que el uso de AI companions podría generar adicción y dependencia entre los más jóvenes

Se estima que más de la mitad de los adolescentes en EE.UU utilizan regularmente AI companions. Los chatbots de plataformas como Character.AI o Replika están diseñados para interactuar con los usuarios a un nivel más personal y conversacional, en lugar de limitarse a cumplir órdenes o resolver tareas lógicas.
Sin embargo, una investigación reciente de la Universidad de Drexel sugiere que lo que comienza como un acercamiento inocente puede acabar derivando en dinámicas poco saludables y con un impacto negativo en su vida cotidiana. El estudio analizó más de 300 publicaciones en Reddit en las que jóvenes de entre 13 y 17 años habían compartido su experiencia con Character.AI.
Uno de los datos más llamativos es que un 5% de los usuarios recurrió a estos compañeros virtuales para actividades creativas o de ocio, y hasta una cuarta parte acudió a la plataforma como una fuente de apoyo psicológico para manejar el malestar y la soledad o para recibir consejos sobre salud mental.
El problema, advierten los investigadores, es que, a medida que la interacción avanzaba, los testimonios comenzaron a contener pinceladas propias de relaciones de dependencia y de comportamientos adictivos.
Los menores llegaron a describir dificultades para reducir o abandonar la interacción con el asistente conversacional, aun cuando percibían que su uso era excesivo. También hacían referencia al impacto que esto tenía en su día a día, como alteraciones del sueño, problemas académicos o tensiones en sus relaciones personales.
Los efectos negativos de un vínculo virtual
“Al comparar las experiencias de los adolescentes con los componentes conocidos de la adicción conductual, pudimos observar en sus publicaciones patrones claros como el conflicto, el síndrome de abstinencia y la recaída, lo que sugiere que esto va más allá de un uso frecuente o intensivo”, explica en un comunicado de prensa Matt Namvarpour, doctorando en el departamento de Ciencia de la Información y primer autor del estudio.
“Muchos jóvenes describieron empezar con algo que parecía útil o inofensivo, pero aseguraron que con el tiempo se convirtió en algo de lo que les costaba alejarse, incluso cuando querían hacerlo”, añade.
La investigación también ha hallado señales de un uso compulsivo de estos sistemas de IA en momentos de estrés o tristeza, adviertendo sobre la centralidad que adquiere la relación con el chatbot frente a otras interacciones sociales.
A ello se suma un fenómeno conocido como ‘tolerancia progresiva’, que hace que cada vez se necesite una mayor exposición al estímulo al que se desarrolla dependencia —en este caso, tiempo con el compañero virtual— para obtener el mismo nivel de satisfacción.
Resultados previsibles por diseño
El estudio también recuerda que no es la primera vez que se estudia la relación entre menores y tecnología y el desarrollo de comportamientos adictivos, como en el caso de los videojuegos. Sin embargo, puntualiza que estos interlocutores virtuales tienen características inherentes que facilitan el desarrollo de vínculos problemáticos con ellos. Se refieren a la personalización, la memoria o la capacidad de respuesta conversacional.
“Lo que hace que esto sea especialmente complicado es que los chatbots son interactivos y emocionalmente receptivos, por lo que la experiencia puede percibirse más como una relación que como una herramienta. Por eso, alejarse no es solo dejar un hábito: puede sentirse como distanciarse de algo significativo, lo que dificulta reconocer y abordar esta dependencia”, añade Namvarpour.
Un marco para diseñadores y desarrolladores
En este contexto, los investigadores de Drexel han hecho hincapié en la necesidad de prestar una atención especial al diseño de este tipo de aplicaciones y proponen un marco conceptual para orientar a diseñadores y desarrolladores en esta labor. Lo han llamado CARE framework for chatbot design; el resultado de unir cuatro principios: Comprehensive Needs (Necesidades integrales), Attachment-awareness (Conciencia del apego), Respectful Empathy (Empatía respetuosa) e Ease of Exit (Facilidad de salida).
El primer pilar de esta metodología (necesidades integrales) parte de la premisa de que estos compañeros virtuales no se utilizan únicamente para tareas concretas o entretenimiento, sino que, en muchos casos, responden a necesidades afectivas, sociales o psicológicas más amplias, por lo que el diseño debe contemplar esos escenarios.
En la práctica, esto implica anticipar situaciones de vulnerabilidad o dependencia en las interacciones, incorporar perfiles especializados (como expertos en salud mental) en las fases de desarrollo o someter los sistemas a pruebas en contextos adversos para detectar posibles fallos. También se apunta a la necesidad de incluir a los propios adolescentes en los procesos de testeo y de observar el uso de estas herramientas a lo largo del tiempo, no solo en las fases iniciales de lanzamiento de producto.
El segundo principio, la conciencia del apego, alude al vínculo que los usuarios pueden desarrollar con el chatbot de IA. El framework parte de la base de que ese apego se va a producir, por lo que debe ser tenido en cuenta en el diseño, evitando tanto ignorarlo como reforzarlo sin control.
Entre las recomendaciones que se plantean a este respecto están no responder de forma fría o punitiva cuando el adolescente expresa una conexión afectiva con el asistente virtual, evitar bloqueos rígidos que no tengan en cuenta el contexto de la interacción o diseñar respuestas que reconozcan esa relación sin presentarla como equivalente a un vínculo humano. El objetivo es gestionar ese apego sin amplificarlo ni negarlo de forma abrupta.
La empatía respetuosa tiene que ver con cómo deben responder los chatbots. El modelo que propone la Universidad de Drexel plantea que el sistema debe ofrecer apoyo y validación, pero sin simular emociones propias ni presentarse como un agente humano.
Entre las medidas sugeridas en este punto estarían evitar expresiones que atribuyan sentimientos al propio AI companion, utilizar un lenguaje que refleje y valide la experiencia del usuario sin apropiársela, y fomentar la capacidad del mismo para gestionar sus propias emociones. También se subraya la importancia de mantener coherencia en las respuestas y de no posicionar el sistema como sustituto de un profesional, especialmente en contextos sensibles.
Por último, cuando los investigadores hablan de facilidad de salida se refieren a la posibilidad de interrumpir o reducir la utilización del asistente virtual. Para ello, es necesario diseñar mecanismos que faciliten una desconexión progresiva y sin fricción. Lo traducen en incorporar puntos naturales de cierre en las conversaciones, en lugar de terminar cada respuesta con una nueva propuesta de interacción, e incluir recordatorios que inviten al usuario a hacer pausas y mensajes que lo animen a disfrutar de otras actividades fuera del entorno digital.
Como concluye el informe, “los diseñadores tienen ahora la responsabilidad de crear sistemas con empatía, matices y atención al detalle, no solo para proteger a los adolescentes de posibles daños, sino también para ayudarles a desarrollar resiliencia, crecimiento y una mayor realización personal en sus vidas”.
Isabel R. Benítez
Últimas entradas de Isabel R. Benítez (ver todo)
- Un estudio advierte de que el uso de AI companions podría generar adicción y dependencia entre los más jóvenes - 21 abril, 2026
- Ciberseguridad cognitiva: el desafío de entender y proteger el razonamiento de la IA - 15 abril, 2026
- Iyad Rahwan: “La resistencia social a una tecnología es una de las grandes preguntas que no se hacen” - 10 abril, 2026











