

La ceremonia cibernética en Colombia y América Latina enfrenta una transformación acelerada que es impulsada por una herramienta cada vez más masiva y utilizada: inteligencia artificial (IA). El ciberdelino ha encontrado una manera fuerte de mejorar sus ataques en una escala y con mayor sofisticación.
AI hace que Internet sea maloCree contenido e historias en mensajes de texto, chat e incluso imágenes y videos que desafortunadamente se vuelven más efectivos para su sofisticación y personalización.
Leer también
Las últimas cifras de compañías como Kaspersky muestran que solo el año pasado en Colombia, SY descubrieron 99 millones de intentos de reemplazar la identidad o el phishing en Internet, lo que se incrementó a un aumento del 65 por ciento En comparación con el período anterior con un promedio de 273,000 ataques diarios.
Debido a la herramienta de ciberseguridad de la misma compañía, 1.291 millones de ataques de phishing en América Latina fueron bloqueados en un 85 por ciento el año pasado. El volumen de amenazas corresponde a un promedio de 3.5 millones de ataques diarios, es decir, más de 2.400 por minuto.
Las «granjas de engaño»
Con el uso de IA, los cibercriminales han logrado refinar los ataques y, sobre todo, automatizar. Se ha creado un modelo conocido como «granjas de phishing» (engaño) en el que se utilizan varios dispositivos móviles controlados Para mensajes de texto fraudulentos masivos (SMISHE).
A través de las tecnologías de automatización de procesos de robots (RPA), los delincuentes pueden adaptarse y distribuir millones de mensajes de engaño en minutos con costos operativos mínimos y altas dificultades de persecución.
Leer también
Esta nueva capacidad operativa ha cambiado las reglas del juego, por lo que la complejidad del acceso a la inteligencia artificial ya no es una barrera técnica que ha aumentado la presencia de más actores más malos que participan en el ecosistema del delito cibernético.
En otro escenario, la puerta con inteligencia artificial generativa se abrió para un fraude mucho más convincente. El uso de audios y videos manipulados, que se conocen como DeepVouize (voces reemplazadas) y Deeppfke (personas y caras manipuladas), permite a los estafadores reemplazar la identidad de identidad, las figuras de autoridad o incluso las personas cerca de la víctima.
Foto:Istock
Y un tercer escenario de riesgo de seguridad cibernética con IA ocurre cuando se usa personas en sus trabajos y oficinas de tecnología. Según Claudio Martinelli, director general de Kaspersky, existe el riesgo de utilizar información confidencial sobre plataformas generativas públicas.
En su examen, proporciona datos comerciales privados, como bases de datos, presentaciones o documentos con información inmobiliaria industrial de la compañía para preguntarle a ChatGPT u otra IA gratuita que ella cree que «está abierta y esta información permanece en sus sistemas».
Este uso incorrecto puede conducir a la filtración involuntaria de datos confidenciales, secretos comerciales o información estratégica, que luego podría ser accesible para otros usuarios que solo preguntan la misma IA gratuita.
Leer también
Aquí La capacitación dentro de las empresas es fundamental para promover el uso y la gestión responsable de estas tecnologías. Con la idea de evitar una herramienta para que la productividad se convierta en una puerta trasera para la valiosa información de las empresas.
¡Atención! No caigas en el engaño con AI
Siempre desconfianza. En particular, los mensajes que llegan con chat, correo, correo, SMS que transmiten una sensación de urgencia o presión emocional.
Examine cuidadosamente los detalles del remitente (Correo, validez de la izquierda) y predecir los enlaces sin hacer clic.
Verifique una consulta Póngase en contacto con el remitente con otro canal oficial (por teléfono).
Mantenga siempre sus contraseñas robustas Y activa la autenticación de dos factores.
Encuentre Internet para frases o datos de noticias Que consiguió que supiera si se trataba de un fraude ya registrado.
Tecnología de dibujo