El impacto de la Inteligencia Artificial en la ciberseguridad: riesgos y tendencias mundiales
¿Ha recibido alguna vez una llamada o videollamada desde el exterior en la que nadie responde? ¿O una notificación de una empresa informándole que sus datos pudieron haber sido comprometidos en un ciberataque? Estas situaciones, cada vez más frecuentes, reflejan una realidad inquietante: el avance acelerado de la Inteligencia Artificial (IA) está transformando profundamente el panorama de la ciberseguridad a nivel mundial, ampliando tanto las capacidades de defensa como las de ataque.
De acuerdo con el rastreador mundial de incidentes de IA elaborado por el Instituto Tecnológico de Massachusetts (MIT), los eventos relacionados con “privacidad y seguridad” han aumentado de manera sostenida desde 2015. Mientras ese año se registraban apenas 24 incidentes, en la actualidad la cifra asciende a 318. Aún más preocupante es que los incidentes atribuidos a “actores maliciosos” representan hoy el 58 % del total proyectado para 2025, frente a un modesto 8 % registrado hace una década.
El Foro Económico Mundial (WEF) atribuye este incremento a varios factores, entre ellos el aumento de las tensiones geopolíticas y económicas desde 2023. Este contexto ha intensificado la necesidad de acceder a grandes volúmenes de datos, que se han convertido en un recurso estratégico. En consecuencia, se genera un incentivo para la obtención de información por medios ilícitos, especialmente en organizaciones que carecen de mecanismos sólidos de protección.
A este escenario se suma la amplia disponibilidad de herramientas de IA, tanto de código abierto como de modelos avanzados accesibles al público general. Esta democratización tecnológica ha permitido que actores maliciosos utilicen la IA con pocos recursos para desarrollar malware más sofisticado, difícil de detectar, y perfiles falsos altamente realistas. Estas capacidades han fortalecido las estrategias de ingeniería social, que continúan siendo uno de los principales puntos débiles en la ciberseguridad.
Una de las modalidades más sofisticadas de ataque en lo que va de 2025 es el uso de “deepfakes”: audios y videos falsos generados con IA generativa, capaces de imitar voces e imágenes reales con gran precisión. Según Fortinet, el 47 % de las empresas ha reportado intentos de fraude mediante esta técnica durante el último año, cifra que se suma al aumento del 42 % en incidentes de ingeniería social reportados al WEF en 2024.
Frente a este panorama, los expertos coinciden en que la diferencia entre un incidente controlado y un desastre empresarial radica en la preparación. Promover una cultura de seguridad de la información, acompañada de capacitaciones constantes, políticas claras y modelos de gobernanza de IA, resulta clave para mitigar riesgos.
En Colombia, aunque no existe una ley específica de ciberseguridad, sí hay un entramado normativo que incluye regulación sectorial, protección de datos personales y tipificación de ciberdelitos. Esta complejidad se incrementa cuando las empresas operan en múltiples jurisdicciones, lo que exige una gestión integral del cumplimiento legal ante posibles brechas de seguridad.
El avance tecnológico no se detendrá, y con él tampoco lo harán los riesgos. Casos recientes como el ataque a IFX Networks, que afectó a decenas de entidades públicas y privadas, evidencian la urgencia de actuar de forma preventiva. Realizar diagnósticos, buscar asesoría técnica y jurídica, y fortalecer los sistemas de defensa ya no es una opción, sino una necesidad estratégica en la era de la Inteligencia Artificial.



Publicar comentario