Cuando abres el móvil para chatear, pagar o estudiar, rara vez piensas en quién protege todo ese tráfico. Sin embargo, para responsables públicos y empresas grandes la pregunta ya es otra muy distinta. Qué pasa si un ataque tumba una red eléctrica, un hospital o una escuela entera.
En una entrevista reciente, Nicole Quinn, vicepresidenta de políticas públicas y relaciones con gobiernos en Asia Pacífico y Japón de Palo Alto Networks, resumía este giro con una idea clara. La ciberseguridad ya no es solo un problema técnico, en gran medida se ha convertido en un asunto de seguridad nacional ligado a la economía, la confianza y la vida digital de la gente.
La IA multiplica las oportunidades y también los ataques
La inteligencia artificial permite traducir textos, generar imágenes o resumir documentos en segundos. Pero las mismas herramientas también sirven para crear correos falsos muy creíbles, clonar voces o lanzar estafas masivas casi sin esfuerzo humano. Quinn lo explica como una especie de espada de doble filo en la que los atacantes usan la IA para escalar timos, phishing y malware a una velocidad que las personas no pueden seguir.
Por eso las defensas también empiezan a apoyarse en algoritmos. Palo Alto Networks describe cómo sus sistemas analizan enormes volúmenes de datos de red y bloquean del orden de decenas de miles de millones de intentos de ataque cada día, incluidos millones de amenazas nuevas que nunca habían visto antes. En la práctica eso significa dejar que las máquinas filtren el ruido y reservar a los analistas humanos para los casos realmente raros o peligrosos.
La propia compañía habla de la necesidad de combatir la IA con IA, una idea que se repite en las grandes firmas de ciberseguridad. El mensaje de fondo es sencillo aunque da un poco de vértigo. Si los atacantes automatizan, los defensores que se queden solo con herramientas antiguas van a ir siempre por detrás.
De problema informático a asunto de seguridad nacional
Quinn insiste en que la ciberseguridad está cada vez más conectada con la economía y la estabilidad de un país. Un fallo grave ya no se queda en el departamento de informática, puede parar fábricas, afectar pagos públicos o dejar sin servicio a millones de usuarios en pocos minutos.
Este giro se nota en los debates de políticas públicas. Informes internacionales recientes sobre seguridad de la IA subrayan que los gobiernos empiezan a tratar estos riesgos como algo estructural y no solo como un problema técnico puntual. Hablan de prácticas como analizar amenazas por adelantado, evaluar capacidades peligrosas de los modelos y aprender de los incidentes para ajustar normas.
Palo Alto Networks también ha publicado previsiones específicas para el sector público donde destaca tres grandes ejes para los próximos años. Identidad digital sólida, uso responsable de IA y construcción de confianza entre administraciones y ciudadanía. Visto desde fuera suena abstracto, pero en el día a día significa cosas tan concretas como que los servicios públicos en línea funcionen sin cortes y sin filtraciones de datos.
Leyes que corren detrás de la tecnología
En la entrevista, Quinn admite que la regulación suele ir por detrás de las innovaciones. Crear marcos legales claros lleva tiempo, mientras que las herramientas de IA aparecen y cambian casi cada mes. Aun así, muchos países ya han empezado a mover ficha tanto en normas de ciberseguridad como en reglas sobre uso de datos y contenidos dañinos.
El caso de India ilustra esa tensión. Las autoridades han acortado el plazo para que las plataformas eliminen contenido ilegal, pasando de un margen de día y medio a apenas unas horas cuando reciben una notificación oficial. La intención declarada es limitar el daño cuando algo dañino se viraliza, aunque expertos advierten que también hacen falta criterios claros y procesos realistas para que las empresas puedan cumplir.
En paralelo, varios países prueban medidas más estrictas para proteger a menores en redes sociales con más verificación de edad y reglas de seguridad específicas. Al final del día lo que se busca es reducir el daño sin bloquear por completo la vida digital de adolescentes que ya estudian, se informan y socializan en línea.
Qué pueden hacer gobiernos, empresas y ciudadanos
Quinn defiende que la IA debe ser segura desde el diseño, con comportamientos controlados y límites claros sobre qué pueden hacer los sistemas automatizados. No se trata solo de poner parches después de un fallo, sino de construir infraestructuras que tengan en cuenta los ataques posibles desde el primer plano.
Otros documentos de la propia Palo Alto Networks hablan de marcos de gestión de riesgos de IA donde gobiernos, industria y mundo académico trabajan juntos para identificar amenazas y mitigarlas antes de que se conviertan en crisis. En la práctica eso se traduce en normas técnicas comunes, pruebas de seguridad y canales para compartir información sobre ataques emergentes.
La parte humana sigue siendo clave. Como recuerda Quinn, la gente sigue haciendo clic en enlaces que no debería, por lo general sin mala intención. Cambiar contraseñas, activar la verificación en dos pasos o desconfiar de mensajes que piden datos urgentes puede parecer poca cosa, pero suma. El resultado es una carrera en la que decisiones de gobiernos, empresas y usuarios van a marcar cuánta confianza tendremos en la IA y en la vida digital de los próximos años.








