IA y ciberdelincuencia: la guerra es mundial. La defensa debe ser en múltiples frentes

Sin categorizar
30 diciembre 2025

Hay lugares en el mundo, que todos hemos aprendido a conocer, donde la guerra se desarrolla en los campos de batalla, pero también hay otra guerra que nos afecta a todos y que se libra en silencio entre servidores y algoritmos.

La inteligencia artificial ha transformado la web en un campo de conflicto global, donde ataques automatizados alcanzan miles de objetivos por segundo y las defensas tradicionales resultan constantemente superadas.

Hoy en día, cada dispositivo conectado es un potencial campo de batalla y cada dato puede ser un arma o un botín de guerra. Para que la situación sea aún más explosiva, la inteligencia artificial que, si bien está revolucionando la forma en que trabajamos y vivimos, está abriendo escenarios inquietantes en el frente del ciberdelito.

Los datos de 2025 revelan una verdad irrefutable: la IA se ha convertido en el arma preferida de los ciberdelincuentes, con un incremento del 47% de los ataques guiados por la IA que, a finales de 2025, según las estimaciones, superarán los 28 millones a nivel global, transformando radicalmente el panorama de las amenazas digitales.

Italia en el punto de mira: números alarmantes e impacto económico

Nuestro país no es inmune a esta ola. En el primer trimestre de 2025, casi el 40% de los aproximadamente 900 graves episodios informáticos involucró directamente instrumentos de inteligencia artificial generativa.

Según la Agencia para la Ciberseguridad Nacional, el impacto económico global de los ataques cibernéticos en 2025 podría superar los 66.000 millones de euros en Italia, lo que equivale al 3,5% del PIB nacional.

Ciberdelincuentes no se nace, se hace

Un “oficio” cómodo y muy rentable. No se trata de un fenómeno marginal, sino de una transformación sistémica del modo en que el crimen actúa en la web. Tanto es así que, entre el primer trimestre de 2023 y el de 2024, hubo un aumento del 223% en la compra y venta de herramientas para crear deepfakes en la dark web. En resumen, criminales no se nace, sino que se hace. Y cada vez más fácilmente. Además, el coste medio para crear un deepfake eficaz no supera los 1,50 dólares. Mientras que el daño económico para una empresa es altísimo. En el sector financiero, por ejemplo, se estima en unos 600.000 dólares. Una asimetría que está redefiniendo las reglas del juego digital, transformando cada interacción online en un potencial campo minado.

El arma de los deepfakes: cuando la realidad nos empuja a la trampa

Los deepfakes representan, entre las amenazas, quizás la más insidiosa. El crecimiento es exponencial y aterrador: de los 500.000 casos de 2023 se prevé llegar a más de 8 millones a finales de 2025. Ya no hablamos de simples curiosidades tecnológicas, sino de sofisticados instrumentos de fraude empresarial.

Un caso emblemático fue el de una sociedad de ingeniería de Hong Kong, donde un empleado transfirió 25 millones de dólares tras una videoconferencia con quien creía que era el CFO y otros colegas, todos en realidad clones generados por la IA. En Italia, uno de cada veinte casos de fracaso en los procesos de verificación de identidad ya es atribuible a contenidos sintéticos generados por la inteligencia artificial.

Los números hablan de una revolución tecnológica sin precedentes: 95.820 vídeos deepfake detectados en 2023, con un aumento del 550% desde 2019.

La nueva generación de ataques

Pero no solo está el deepfake. En general, la inteligencia artificial ha hecho que cada tipo de ataque sea más eficaz y personalizado. El phishing, desde siempre uno de los vectores más comunes del ciberdelito, se ha vuelto casi indistinguible de la comunicación legítima. Más del 80% de los correos electrónicos de phishing hoy en día aprovechan modelos lingüísticos avanzados para crear mensajes personalizados, contextualizados y sin los errores gramaticales que en el pasado delataban el fraude.

Los ciberdelincuentes utilizan la IA para analizar los perfiles sociales de las víctimas, estudiar su estilo comunicativo y crear mensajes que parecen provenir de colegas, superiores o socios comerciales. El voice cloning representa otra frontera preocupante: los ataques basados en la clonación vocal han aumentado un 81% en 2025. Bastan pocos segundos de audio para crear un clon vocal convincente, que luego se utiliza para estafas telefónicas o ataques de business email compromise.

La carrera hacia la defensa digital

Ante esta escalada, la integración entre inteligencia artificial y estrategias de ciberdefensa ya no es una opción, sino una necesidad imprescindible. No en vano, el 89% de las organizaciones a nivel global considera que la protección basada en la IA es esencial para colmar esta brecha.

Sin embargo, la adopción de la IA defensiva conlleva nuevos desafíos. Las empresas que han implementado defensas basadas en la IA, en 2025, han sufrido violaciones en el 29% de los casos, lo que demuestra que los atacantes siguen el ritmo. Además, cada vez más está surgiendo el problema de la shadow AI: el uso no controlado de herramientas de inteligencia artificial dentro de las organizaciones que expone a nuevas vulnerabilidades.

El factor humano sigue siendo crucial

A pesar de la automatización creciente y una situación en continuo cambio, hay un elemento que sigue siendo central: hablamos del factor humano que puede marcar la diferencia en las estrategias defensivas, pero sobre el que, paradójicamente, se interviene aún demasiado poco. A día de hoy, de hecho, la capacidad humana de detectar deepfakes de alta calidad es dramáticamente baja:

De hecho, según la Enisa, la Agencia de la Unión Europea para la Ciberseguridad, alrededor del 60% de las violaciones se derivan de errores humanos, cifras realmente demasiado altas.

Por este motivo, es determinante invertir en la formación continua del personal, eligiendo recorridos que estén a la altura del desafío que esta época nos pide.

Al mismo tiempo, es importante invertir en tecnologías defensivas avanzadas, desde una perspectiva multidisciplinar, teniendo en cuenta que la IA es un arma poderosa de doble filo y requiere un gran esfuerzo en el desarrollo de sistemas de IA seguros y fiables y en su correcta utilización con el fin de defenderse de los ataques basados en la misma inteligencia artificial.

En resumen, el futuro de la seguridad informática no estará determinado por la tecnología por sí sola, sino por la capacidad de combinar inteligencia artificial, competencias humanas y estrategias proactivas en un ecosistema integrado de defensa. Lo que está en juego es demasiado importante como para tener dudas, perder tiempo y dudar aún.  

Articoli correlati

No se encontraron resultados

La página solicitada no pudo encontrarse. Trate de perfeccionar su búsqueda o utilice la navegación para localizar la entrada.

Noticias

Nos enorgullece anunciar que Cyber Guru ha sido incluida en la prestigiosa lista «Top 100 Empresas de EdTech de 2025» de la revista TIME y Statista.

AWARENESS TRAINING

  • Awareness

    Formación continua para desarrollar conocimientos y concienciación.

  • Channel

    Una experiencia formativa atractiva, en formato de serie de televisión.

  • Chatbot NUEVO

    Modo conversacional para la formación en el lugar de trabajo.

COMPLIANCE TRAINING

PHISHING TRAINING

  • Phishing

    Formación adaptativa personalizada.

  • PhishPro

    El complemento para una formación avanzada.

REAL TIME AWARENESS

Cyber Advisor NUEVO

Asistente de ciberseguridad GenAI ¡Descubre Guru, el asistente de IA especializado en ciberseguridad!

RECURSO DESTACADO

Libro electrónico

Cyber Guru Academy Creadores de contenido

Contenido que marca la diferencia Idear, diseñar y producir contenido formativo capaz de generar interés, implicación y motivación por aprender es un reto diario para el departamento Academy de Cyber Guru. Porque ahora está claro que para formar a las personas en la defensa contra los delitos cibernéticos no basta con una plataforma atractiva y una gran cantidad de contenido.