


Hace unos años, cuando hablábamos de inteligencia artificial (IA), pensábamos en robots o programas que pueden realizar tareas de forma automática. Hoy en día, en pocas palabras, Esta tecnología permite a las computadoras reconocer patrones en grandes cantidades de información y generar contenido nuevo.: Textos, imágenes, audios o incluso vídeos que pueden parecer reales.
El problema es que la misma tecnología también se utiliza para cometer fraude. Y no es ciencia ficción: En Colombia ya hay casos de personas que han perdido dinero tras recibir llamadas con voces clonadas, videos falsos o mensajes sumamente convincentes generado por inteligencia artificial. La tecnología que antes estaba reservada a los laboratorios ahora está disponible para cualquier persona con conexión a Internet y ha cambiado el panorama del fraude digital.
LEER TAMBIÉN
La voz y el vídeo son reproducibles.
Uno de los bulos más habituales es la clonación de voces. Con tan solo unos segundos de audio, que se puede obtener a partir de un vídeo en las redes sociales, una nota de voz o incluso una llamada grabada.– los delincuentes pueden crear una réplica casi idéntica de la voz de una persona.
El escenario suele ser el mismo: una llamada urgente con guiones similares a estos: «Mamá, tuve un accidente». “Estoy arrestado, necesitas hacer una transferencia ahora” o “Me robaron el teléfono, este es mi nuevo número”.
El tono es doloroso, la voz suena real, la historia parece coherente. Y a los pocos minutos, la víctima realiza la transferencia. La inteligencia artificial no sólo copia el timbre de la voz; También puede imitar pausas, acentos y emociones. Cuando se combina con información de las redes sociales (viajes, familiares, lugares visitados por una persona), el engaño se vuelve aún más creíble.
La IA es capaz de imitar el acento, las pausas y las emociones de las víctimas del fraude. Foto:iStock
Estos bulos también pueden incluir imágenes que contienen deepfakes, que son vídeos manipulados mediante inteligencia artificial que permiten sustituir el rostro de una persona o alterar su voz. En este sentido, Hoy en día es posible crear un vídeo falso en el que, por ejemplo, un “jefe” exige un pago urgente, un supuesto funcionario da instrucciones o un personaje público promueve una inversión fraudulenta.
LEER TAMBIÉN
Aunque a menudo hay pequeños detalles que revelan manipulación (movimientos faciales extraños o sincronización labial incompleta), no siempre son obvios para el usuario promedio, especialmente si el mensaje llega en un momento de presión.
Por otro lado, En Colombia, WhatsApp sigue siendo el canal más popular para los estafadores. Sin embargo, a diferencia de antes, muchos de estos mensajes ya no están mal redactados ni tienen errores evidentes, ya que la IA permite generar textos personalizados y coherentes.
En Colombia, WhatsApp sigue siendo el canal más popular para los estafadores Foto:iStock
El delincuente puede analizar información pública sobre sus víctimas en las redes sociales y construir un mensaje casi a medida: «Hola Carlos, vimos que recientemente hiciste una compra. Necesitamos confirmar el pago antes del envío.»
El nombre correcto, el contexto correcto y el momento correcto hacen que la víctima pierda la atención. Algunas estafas combinan varias técnicas: primero viene un mensaje; luego una llamada con voz clonada y finalmente un enlace falso para completar el pago.
¿Por qué son tan peligrosos este tipo de estafas? Porque atacan algo fundamental: la confianza. Durante años nos han enseñado a desconfiar de los correos electrónicos mal escritos o de los números desconocidos, pero Ahora la estafa puede parecer perfecta, parecer real y estar bien escrita.
LEER TAMBIÉN
Además, la IA permite automatizar ataques. Un estafador puede enviar miles de mensajes personalizados en tan solo unos minutos. Y si sólo cae un pequeño porcentaje de personas, la estafa es rentable.
Ante estos riesgos, existen diversas medidas que pueden brindarte mayor seguridad. Sin embargo, si ya has sido víctima de alguna de estas estafas, ten esto en cuenta. Es esencial actuar con rapidez. Cuanto más rápido actúe, mayores serán sus posibilidades de limitar el daño.
En estos casos, es importante que contactes inmediatamente con tu banco.bloquear transmisiones que puedan realizar los delincuentes; Denunciar el número del estafador en WhatsAppreportar el incidente a la Policía Nacional (Centro Cibernético de la Policía) y cambiar las contraseñas.
Finalmente, recuerda que la inteligencia artificial no es el enemigo, sino una poderosa herramienta con beneficios para la educación, la salud y la productividad. El problema no es la tecnología, sino su uso malicioso. En un mundo donde los votos pueden ser falsificados y los videos pueden manipularse, la mejor defensa sigue siendo la misma: pensar antes de reaccionar, verificar antes de transmitir y nunca actuar bajo presión.
LEER TAMBIÉN
Medidas para protegerse
Aunque la tecnología está evolucionando, existen medidas simples que aún funcionan y pueden ayudarlo a protegerse de las estafas impulsadas por la inteligencia artificial:
– Tenga cuidado con la urgencia emocional: La mayoría de las estafas se basan en el miedo o las prisas. Si un mensaje o una llamada exige que actúe “inmediatamente”, deténgase.
– Cuelga y vuelve a llamar: Si recibes una llamada sospechosa de un familiar, cuelga y llama directamente al número que ya tienes guardado.
– Crea una palabra clave conocida: Acuerda con tu familia una palabra para usar en situaciones de emergencia. Si la persona que te llama o te escribe no conoce esta palabra, no hagas transferencias.
– No compartas audios innecesarios en redes sociales: Cuanto más contenido de audio y vídeo esté disponible públicamente, más fácil será para un delincuente entrenar un modelo de clonación de voz.
– Habilitar la verificación en dos pasos: en WhatsApp, en correos electrónicos y en tus cuentas de redes sociales.
– No proporcione códigos de verificación: Ninguna empresa de confianza te pedirá un código que te llegue vía SMS.
– Verifique antes de realizar inversiones: Si ves un video en el que una figura pública recomienda invertir, confirma la información en medios oficiales.
CARLOS A. CASTAÑEDA MARROQUÍN
Por TIEMPO



