Quien te escribe o te habla no siempre es quien dice ser. Puede tratarse de un ciberdelincuente que usa la IA para suplantar la identidad de alguien para obtener información confidencial. Conoce cómo anticiparte a los delitos digitales.
Inteligencia artificial: ¿representa peligros para tu empresa?
A diario recibes correos, mensajes de voz o videollamadas de tus jefes, colaboradores, proveedores y clientes, ¿verdad? Ten cuidado porque la próxima vez puede que no sean ellos los que te contacten, sino delincuentes que usan la inteligencia artificial (IA) para engañarte imitando su forma de escribir, voz o imagen.
Esa teoría parece sacada de una película de ciencia ficción, pero hoy es más real que nunca. Basta con tener un texto o grabación de voz e imagen de una persona y darles una instrucción o prompt a las herramientas de IA para que generen un mensaje que aparenta haber sido creado por ese individuo y que, a simple vista, es difícil de diferenciar.
¿Cómo puedes evitar estas estafas con IA? El primer paso es identificar todas las posibilidades que la IA brinda a los delincuentes. Y tener claro que lo que buscan al explotar esas facilidades es acceder a información privada tuya o de tu negocio para luego obtener beneficios económicos o de otros tipos.
Principales delitos que se cometen con IA
Jaime Neira, director de producto de IA para OlimpIA, empresa tecnológica que desarrolla plataformas para la transformación y protección digital de los negocios, explica los principales delitos que se cometen a través de la IA y afectan a las empresas.

Falsificación y fraude automatizado
Los delincuentes usan plataformas de IA para clonar la voz o los rostros de las personas con el fin de suplantar su identidad, dar órdenes al equipo de trabajo o socios y lograr que ejecuten acciones que benefician a los criminales.
Una de ellas es acceder a los sistemas financieros de la empresa, que hoy no solo exigen colocar una clave, sino que tienen biometría, es decir, que se necesita mostrar el rostro del usuario para ingresar.
Uso inapropiado de los datos
A través de la IA generativa, los malhechores duplican la voz de una persona y realizan llamadas a los miembros de su equipo de confianza para obtener datos privados que luego se usan para acciones no autorizadas o se secuestran (phishing) para después pedir un “rescate” por ellos.
Fuga de datos confidenciales
Los ladrones aprovechan que las empresas están entrenando modelos de IA con datos confidenciales, sin el cuidado necesario y sin otorgar autorizaciones de uso específicas, acceden a ellos y obtienen información privada.
Clonación de páginas web
Los delincuentes usan robots automatizados y la IA para clonar rápidamente las páginas web de los negocios y las envían a los miembros de un equipo o los clientes para que ingresen datos financieros que luego el ladrón puede usar a su antojo.
Te recomendamos leer: optimización de procesos administrativos: usa la tecnología
Crear una cultura de ciberseguridad: la clave para prevenir estafas con IA
La IA en manos de los delincuentes es un peligro que las empresas pueden contrarrestar al diseñar y aplicar una cultura de prevención de amenazas y saber cómo actuar cuando se configura un ataque para que sus efectos sean lo menos dañinos posible.
El director de producto de IA para OlimpIA afirma que esa cultura tiene diferentes ejes porque se requiere que haya procedimientos internos y otros de cara a los clientes para proteger los datos de ambos, así:
💼Al interior de la empresa
Definir una política de uso de la IA y dejarles claros a los miembros en qué casos se puede usar, qué tipo de información se suministrará y cuál no.
Usar herramientas de IA que cumplan con estándares internacionales, como la ISO/IEC 42001, que establece un marco para el uso ético, seguro y eficiente de estas tecnologías.
Clasificar y segmentar correctamente la información del negocio. Saber qué datos son públicos, sensibles o privados sirve para determinar con cuáles se pueden entrenar los modelos propios de IA.
Tener cláusulas éticas relativas a la protección de datos o las autorizaciones requeridas para usarlos. Así, se evita la pérdida de control sobre la información, usos malintencionados o traumatismos derivados de usar una IA sin supervisación.
Lograr una trazabilidad y escalabilidad de la IA. El modelo que se use debe ser auditado y tiene que ser transparente de cara al usuario. No puede ser una caja negra que da un resultado, pero nadie sabe cómo ni por qué.
Contemplar la ciberseguridad como un pilar importante y transversal en cada organización, porque el insumo más valioso son los datos y se debe garantizar su protección.
👨💼 Con los empleados
La construcción de una cultura de prevención frente a delitos relacionados con IA incluye capacitar a los empleados para identificar los dominios de páginas web o correos electrónicos confiables. El objetivo es prevenir el secuestro de información. Esto significa aprender a reconocer si un correo electrónico pertenece a cierta persona u organización.
Alentar a los empleados a no abrir enlaces incluidos en correos electrónicos, porque pueden ser fraudulentos. Hay que verificar, por ejemplo, que el dominio o dirección web sea coherente con el de la entidad que supuestamente los está enviando. Esto ayuda a aclarar dudas en caso de que la página web haya sido clonada.
👨💻 Hacia los clientes
Dejarles claro con qué herramienta de IA van a interactuar, con cuáles certificaciones cuenta, cómo o en qué parte del proceso de compra deberán usarla y para qué se utilizarán sus datos o imágenes.
Ofrecerles guías o hacerlos partícipe de campañas de concientización sobre cómo utilizar la IA, cuándo no brindar datos personales y de qué forma evitar posibles fraudes.
Construir con ellos una relación soportada en acuerdos de términos y condiciones sobre el uso de la IA o protección de datos personales que se requieran durante el uso de la IA. Los usuarios son los dueños de su información y quienes pueden autorizar su utilización por parte de cualquier herramienta tecnológica.
Te puede interesar: Guía práctica para diseñar estrategias de impacto social, comienza ahora
¿Clonaron un mensaje o video de alguien en tu empresa? Así es como debes actuar
Las estafas con IA avanzan y se perfeccionan al mismo tiempo que la tecnología. Incluso lo hacen más rápido. En ocasiones, eso no da espacio a las compañías para que se preparen con anticipación. ¿Te sientes identificado? Lo importante es que actúes desde ya y que fortalezcas tu cultura de prevención para estar listo ante un ataque.
Hay que tener planteados diferentes escenarios para saber cómo actuar si, por ejemplo, se publica en redes sociales un video del gerente de la empresa que él realmente no hizo o si se difunde un audio con su voz que él no grabó. También, si ese material circula internamente en la compañía o si solo llega hasta los clientes.
“
“Se debe buscar, informar y retroalimentar automáticamente a los usuarios reales sobre el proceso de clonación por medio de los canales de comunicación oficiales. Hay que buscar, cerrar y reportar ese incidente e iniciar un proceso de investigación para saber dónde estuvo la brecha. Existen empresas o agentes de IA dedicados a monitorear 24/7 esos incidentes, generar alertas y notificar a los clientes sobre las vulnerabilidades mientras se combate la amenaza”, concluye Jaime Neira.
”
Ante el peligro cibernético, no te paralices. Mejor actúa. Empieza ahora a crear tu cultura de prevención frente a estafas con IA. ¿Estás dispuesto a proteger tu negocio? Hazlo también en el entorno digital.