China quiere regular las apps de avatares de IA y los chatbots emocionales

| 30 diciembre, 2025 | 0 comentarios

China quiere regular las apps de avatares de IA y los chatbots emocionales

China ha dado un nuevo paso en la regulación de la inteligencia artificial con la publicación de un borrador de normas dirigido específicamente a los llamados chatbots emocionales y a las aplicaciones de IA que simulan vínculos afectivos con los usuarios. La iniciativa, impulsada por la Administración del Ciberespacio de China (CAC), busca establecer límites claros a unas herramientas que ya están presentes en el mercado y que han ganado popularidad como acompañantes virtuales, asistentes conversacionales o incluso parejas digitales.

El texto se dirige a servicios de IA que adoptan rasgos humanos en su comunicación, como personalidad definida, memoria emocional, capacidad de empatía o estilos de conversación diseñados para generar cercanía. Este tipo de tecnologías ya se utilizan en aplicaciones de compañía, bienestar emocional o entretenimiento, algunas de ellas muy conocidas a nivel internacional, como Replika, Character.AI o XiaoIce, que permiten mantener conversaciones prolongadas y personalizadas con personajes virtuales.

Uno de los principales objetivos del borrador es la protección de la salud mental de los usuarios. Las autoridades chinas consideran que este tipo de interacción puede generar dependencia emocional, especialmente en personas vulnerables, y plantean que las plataformas deban detectar señales de uso excesivo o apego poco saludable. En esos casos, los sistemas estarían obligados a intervenir, ya sea mediante advertencias, sugerencias de descanso o la derivación a asistencia humana.

El documento también pone el foco en situaciones de riesgo grave. Si un usuario expresa pensamientos relacionados con suicidio, autolesión u otros comportamientos extremos, la IA debería activar protocolos específicos que incluyan la intervención de personal humano, el envío de mensajes de apoyo y la recomendación de ayuda profesional. En determinados supuestos, incluso se contempla la notificación a contactos de emergencia o tutores legales.

Otro aspecto clave es la transparencia. Las aplicaciones deberán dejar claro en todo momento que el interlocutor no es una persona real, sino un sistema automatizado, evitando confusiones deliberadas que puedan reforzar el apego emocional. Además, se introducirían límites de uso prolongado, con recordatorios periódicos tras largas sesiones de conversación para evitar dinámicas de aislamiento o sustitución de relaciones humanas.

Vetos en contenidos

El borrador también establece líneas rojas en cuanto al contenido que estas IAs pueden generar. Quedaría prohibida cualquier respuesta que promueva la violencia, el suicidio, las autolesiones, las conductas adictivas o la manipulación emocional con fines comerciales o ideológicos. En el caso de menores, las exigencias serían aún mayores, con controles parentales, restricciones de tiempo y sistemas de supervisión reforzados.

Aunque la propuesta se encuentra todavía en fase de consulta pública, el movimiento de China resulta significativo porque aborda de forma directa un fenómeno que hasta ahora apenas había sido regulado. En otras regiones, como la Unión Europea o EE.UU, el debate sobre los riesgos de los chatbots emocionales está también presente, pero rara vez se ha traducido en normas tan específicas centradas en el impacto psicológico de estas herramientas.

Si el borrador se convierte finalmente en ley, las consecuencias para desarrolladores y plataformas podrían ser relevantes. Muchas aplicaciones de IA de compañía tendrían que modificar su diseño, sus modelos de interacción y sus sistemas de moderación para cumplir con los nuevos requisitos. Para los usuarios, la regulación podría traducirse en experiencias más seguras y transparentes.

applicantes

applicantes

Applicantes.com es la primera web de información diaria en español centrada en el mundo de las aplicaciones móviles (para todas las plataformas), web y otros tipos de apps.
applicantes
×

Escribe un comentario