Una filtración destapa los riesgos de privacidad en algunas de las apps de IA más descargadas

| 16 septiembre, 2025 | 0 comentarios

Una filtración destapa los riesgos de privacidad en algunas de las apps de IA más descargadas

En los últimos meses hemos visto cómo los chatbots y las aplicaciones de inteligencia artificial generativa han colonizado las tiendas de iOS y Android, prometiendo creatividad al instante, conversaciones inteligentes y la posibilidad de generar imágenes con solo unas palabras.

Sin embargo, el entusiasmo por probar estas herramientas convive con un riesgo creciente: la falta de seguridad con la que algunas de ellas gestionan los datos de los usuarios. El caso de las aplicaciones desarrolladas por Vyro AI ha puesto de manifiesto hasta qué punto esta prisa por lanzar funciones ‘mágicas’ puede traducirse en graves problemas de privacidad.

Según una investigación publicada por Cybernews, una base de datos mal configurada expuso durante meses más de 116 GB de información relacionada con estas apps.

Entre los datos filtrados no solo se encontraban detalles técnicos sobre los dispositivos utilizados, sino también tokens de autenticación que podían servir para acceder a las cuentas de los usuarios e incluso sus propias entradas en los chatbots, es decir, las preguntas, confesiones o ideas que habían compartido creyendo que quedaban en un espacio privado. Esto abría la puerta tanto al secuestro de cuentas como a la exposición de información extremadamente sensible.

Las apps afectadas

La filtración afectaba a varias aplicaciones populares de Vyro AI, como ImagineArt, un generador de imágenes que permite crear diseños y obras digitales a partir de simples descripciones de texto, que suma más de 10 millones de descargas en Google Play y que se encuentra también entre las apps más destacadas de la App Store.

Además, también estaban conectadas a la misma infraestructura vulnerable Chatly, un asistente conversacional basado en modelos de IA capaz de responder preguntas, ayudar a escribir textos o mantener diálogos naturales (con más de 100.000 instalaciones en Android) y Chatbotx, otro chatbot en formato webapp con funciones similares.

Todas ellas se presentaban como herramientas creativas y de apoyo, pero en la práctica han estado recopilando y exponiendo sin protección información que los usuarios consideraban privada.

Una filtración destapa los riesgos de privacidad en algunas de las apps de IA más descargadas

Las consecuencias

Cualquiera con acceso a esos tokens podría hacerse pasar por ellos, visualizar historiales de conversación, revisar imágenes generadas o incluso realizar compras dentro de la aplicación.

Al mismo tiempo, se abre la puerta a la exposición de información sensible, ya que muchas personas utilizan estos servicios para probar cómo redactar textos íntimos, trabajar con ideas profesionales o simplemente para expresarse sin filtros.

Lo ocurrido muestra un patrón que se repite en el ecosistema móvil: la obsesión por llevar al mercado cuanto antes nuevas apps basadas en IA suele ir acompañada de un descuido en cuestiones críticas como la seguridad de los servidores o la gestión de los datos de sesión.

“Esta filtración es significativa, ya que habría permitido monitorizar el comportamiento de los usuarios, extraer información confidencial que compartían con modelos de IA y secuestrar sus cuentas”, han destacado los investigadores de Cybernews.

Juanrrison Ford

Juanrrison Ford

Periodista multitarea, multiplataforma y responsive. Peliculero. Más explicante que replicante. Corresponsal de guerra en la App Store y Google Play. Conspira, escribe posts, prepara lasañas de carbonita y hace unicornios de origami sentado en su sillón negro mientras acaricia a su gato. Una vez hizo sonreír a un Angry Bird. @juanrrisonford
Juanrrison Ford
×

Escribe un comentario