Una app para aprender inglés expone millones de voces

La app japonesa de aprendizaje de inglés Abceed, una de las más populares en el país nipón para estas lides, ha sufrido una filtración masiva de datos que pone sobre la mesa un problema emergente en ciberseguridad: el uso fraudulento de grabaciones de voz mediante inteligencia artificial.
Abceed no es una app menor. Desarrollada por la compañía japonesa Globee, cotizada en bolsa, la aplicación presume de ser la número uno en educación en Japón, con alrededor de 5 millones de usuarios y acuerdos con grandes compañías como Sony o Paramount, además de editoriales educativas. Su uso está extendido incluso en entornos académicos y corporativos.
El problema se originó por una mala configuración en la infraestructura cloud. Investigadores de seguridad de Cybernews detectaron un bucket de Google Cloud Storage sin protección que permitía acceder libremente a más de 46 millones de archivos, la mayoría audios de usuarios practicando inglés.
En total, el volumen de datos expuesto alcanzaba los 10 Tb, una cantidad enorme de información que podría haber sido recopilada por terceros sin demasiada dificultad. El problema no es solo la cantidad, sino la naturaleza de la información: no hablamos de contraseñas o emails, sino de datos biométricos.
A diferencia de una contraseña, tu voz no se puede cambiar. Y en la era de la inteligencia artificial generativa, basta con unos segundos de audio para recrearla con bastante fidelidad. Esto convierte este tipo de filtraciones en especialmente peligrosas.
Los datos expuestos son un auténtico “oro” para ciberdelincuentes, ya que permiten clonar voces para hacerse pasar por familiares o compañeros, realizar ataques de vishing (phishing por voz), crear identidades falsas para estafas complejas o incluso intentar saltarse sistemas de autenticación por voz.
Además, las grabaciones pueden contener ruido de fondo, conversaciones o contexto del entorno, lo que añade aún más información útil para un atacante.
Este incidente no es aislado, sino parte de una tendencia más amplia: el crecimiento de los ataques basados en voz sintética. Hoy en día, los ciberdelincuentes pueden simular llamadas de emergencia de un familiar, un jefe o incluso una entidad bancaria, con el objetivo de generar urgencia y provocar una acción rápida, como una transferencia de dinero.
El problema es que estas técnicas son cada vez más convincentes. La combinación de modelos de IA accesibles, grandes volúmenes de datos filtrados y automatización de ataques está reduciendo drásticamente la barrera de entrada al fraude.
En paralelo, el caso de Abceed también refleja un fallo más amplio en el ecosistema de aplicaciones móviles. Según Cybernews el 72% de las apps de IA que han analizado contienen secretos expuestos en su código, como claves API o identificadores de servicios cloud.
Cómo protegerse de los fraudes por voz
Aunque los usuarios no tienen control directo sobre estos fallos, sí pueden tomar medidas para reducir riesgos. Por ejemplo, establecer una palabra clave con familiares para verificar llamadas sospechosas, desconfiar de comunicaciones urgentes que soliciten dinero o datos personales, y comprobar siempre por otro canal la veracidad de este tipo de peticiones.
También es recomendable evitar el uso de autenticación por voz en servicios especialmente sensibles.











