
Hondumedios El experto en seguridad, Juan Carlos Degrandez es del criterio que en el mundo del crimen cibernético, la inteligencia artificial (IA) se ha convertido en una herramienta cada vez más utilizada por las estructuras criminales para optimizar sus operaciones.
La IA ofrece capacidades de análisis de datos y automatización que les permiten identificar vulnerabilidades en sistemas de seguridad, lanzar ataques dirigidos y perpetrar actividades ilícitas de manera más eficiente, dijo el experto
Por otra parte mencionó que las organizaciones criminales pueden emplear algoritmos de IA para desarrollar malware sofisticado que evite la detección de los sistemas de defensa cibernética.

Además, expresó que la IA puede ser utilizada para personalizar ataques, adaptándose a los patrones de comportamiento de las víctimas y maximizando las posibilidades de éxito.
La conclusión es que la creciente incorporación de la IA en las operaciones criminales presenta un desafío significativo para las entidades de seguridad y defensa. La capacidad de las estructuras criminales para evolucionar y adaptarse a las nuevas tecnologías exige una respuesta igualmente innovadora por parte de los organismos encargados de hacer cumplir la ley y proteger la ciberseguridad, puntualizó Degrades
Amenazas de ciberseguridad
La tecnología seguirá progresando en 2024 y con ella los desafíos en áreas como la ciberseguridad. La falta de profesionales del sector, los ciberataques geopolíticos o las vulnerabilidades en aplicaciones móviles o cascos de realidad virtual estarán en el foco y todo ello dominado por la inteligencia artificial.
La IA depende en gran medida de datos, y estos datos pueden ser vulnerables a amenazas de ciberseguridad. Los ataques cibernéticos pueden comprometer la integridad y la confidencialidad de los datos utilizados por los sistemas de IA, lo que podría tener consecuencias devastadoras.
La administración de riesgos en este aspecto implica la implementación de medidas de seguridad robustas y la capacitación del personal en ciberseguridad.
Para mitigar los riesgos asociados con la IA, las organizaciones pueden seguir algunas estrategias clave:
- Evaluación de riesgos: Realizar evaluaciones exhaustivas de riesgos en cada proyecto de IA, identificando posibles problemas y desafíos desde el principio.
- Transparencia: Fomentar la transparencia en la toma de decisiones de la IA para que los resultados sean comprensibles y justificables.
- Diversidad de datos: Utilizar conjuntos de datos diversos y representativos para reducir el sesgo en los modelos de IA.
- Pruebas y validación: Implementar pruebas rigurosas y validación continua de los modelos de IA para identificar y corregir errores.
- Seguridad cibernética: Priorizar la seguridad cibernética y mantener los sistemas de IA protegidos contra amenazas externas.
- Gobernanza y ética: Establecer políticas de gobernanza y ética sólidas que guíen el desarrollo y la implementación de la IA.