Ciberseguridad cognitiva: el desafío de entender y proteger el razonamiento de la IA

| 15 abril, 2026 | 0 comentarios

Ciberseguridad cognitiva: el desafío de entender y proteger el razonamiento de la IA

Llevábamos décadas intentándolo. Qué digo décadas. ¿Siglos? ¿Milenios? Hay quienes dicen que los deseos del ser humano de crear máquinas a su imagen y semejanza se remontan a la mismísima mitología griega. E incluso así, el boom (¿definitivo?) de la inteligencia artificial nos ha pillado con el pie cambiado. Intentando encajarla en antiguos moldes, o buscando la forma en que esos antiguos moldes nos ayuden a cerrar las brechas que va creando por el camino.

Una de esas grandes brechas tiene que ver, precisamente, con la seguridad de los sistemas de IA y, como ha defendido Jordi García ante la audiencia del AMETIC AI Summit 2026, ha llegado el momento de aceptar que las herramientas que hemos usado hasta la fecha están obsoletas. “La ciberseguridad clásica ha muerto”, ha afirmado el CEO de la tecnológica CiberTECCH.

La frase, rotunda, demoledora, se ha quedado flotando en el aire; acaso como la más inesperada de las afirmaciones que se iban a escuchar a lo largo de la mañana.

Porque se sabe y se acepta como una verdad casi absoluta que la IA tiene un potencial transformador y hay pocas personas que, a estas alturas, no hayan comprado sus promesas de ganancias en eficiencia y productividad. Pero, ¿tanto cambia el escenario como para tener que replantear los principios y sistemas que a día de hoy nos protegen como organizaciones e individuos en el entorno digital?

A nuevos retos, nuevas soluciones

Si la IA es cada vez más humana, porque “razona”, interactúa y toma decisiones por nosotros, tal vez deberíamos empezar a tratarla como tal, argumentaba el también director de CibraLAB: “La seguridad de los sistemas de IA se convierte en un problema cognitivo, porque si la IA ‘piensa’, puede ser manipulada”.

A García no le cabe ninguna duda de que avanzamos hacia una IA autónoma capaz de desarrollar tareas por y para el ser humano. En muchas áreas, las máquinas nos sustituirán. Ahora bien, ha advertido, si vamos a reemplazar al personal de atención al cliente de una compañía por una máquina, necesitamos asegurarnos de que no esté loca. Del mismo modo, deberíamos comprobar que no está desequilibrada si se va a encargar de apretar un gatillo (se refería a las aplicaciones en la industria de Defensa) o si se le asignan decisiones críticas como supervisar infraestructuras.

“La IA es una oportunidad, pero necesitamos entender los riesgos: ser autónomo no significa no tener ningún tipo de control”, ha recordado. En este contexto, garantizar la seguridad del sistema pasa por trasladar el foco de vectores externos, perímetros y vulnerabilidades técnicas a considerar y evaluar su comportamiento interno: “por qué toma unas decisiones y no otras, hasta qué punto es capaz de discernir si la estamos intentando engañar o manipular, o si le estamos pidiendo algo que va en contra de los valores y derechos fundamentales”. Es lo que Jordi García denomina ‘ciberseguridad cognitiva‘.

Psicología humana para máquinas más seguras

“Consiste en proteger cómo piensa la máquina, no solo cómo funciona”, ha expuesto el experto en IA y ciberseguridad. En la práctica, eso se traduce en auditorías y soluciones que recuerdan a procedimientos de la psicología humana: análisis de comportamiento, detección de sesgos o patrones de respuesta peligrosos, evaluación de la coherencia y estabilidad del razonamiento, y medición de su resistencia a la manipulación (inyección de prompts, jailbreaking, manipulación contextual).

De nuevo, una propuesta provocadora para las personas que han escuchado su charla: ¿tenemos que empezar a pensar en test psicotécnicos para las máquinas?

Mientras la audiencia reflexionaba, García añadía una nueva capa de complejidad: no es lo mismo un modelo recién sacado de la caja que uno que está conectado a Internet. Cada sistema, con sus especificidades, requerirá de un mecanismo concreto de evaluación. Tampoco se puede obviar que tan importante es lo que le preguntamos cómo la forma en que lo hacemos. Algo tan sencillo como usar lenguas como el finés o el euskera, ha aseverado, altera la trayectoria de razonamiento del modelo.

Cuatro pilares para una IA confiable

“La inteligencia artificial no es una herramienta; es una infraestructura crítica que ya está tomando decisiones por nosotros. Por tanto, la pregunta no es qué puede hacer la IA, sino si podemos confiar en ella”, ha añadido.

Descartada la posibilidad de que estos sistemas sean perfectos de base y aceptando sus fallos y riesgos (sesgos y alucinaciones, envenenamiento de datos, fugas de información, decisiones opacas o erróneas), el director de CibraLAB ha mencionado cuatro pilares fundamentales para una IA confiable.

El primero es la incorporación de controles desde las fases iniciales de desarrollo (security by design). El segundo, la gobernanza, que implica definir quién toma las decisiones, bajo qué reglas y con qué mecanismos de supervisión. Le siguen la transparencia y la trazabilidad. Y cierra la lista la supervisión humana efectiva; es decir, que existan mecanismos reales para garantizar que las personas mantienen el control sobre las decisiones importantes y pueden intervenir, corregir o detener el sistema cuando sea preciso.

×

Escribe un comentario