Marc Read denuncia que unos estafadores se hicieron pasar por él utilizando la ventana de chat de una reunión

mark, read, wpp, logo, global, programapublicidad

Los estafadores crearon una cuenta de WhatsApp con una imagen públicamente disponible de Read y la usaron para organizar una reunión en Microsoft Teams que aparentaba ser con él y otro ejecutivo senior de WPP.

Aunque el intento de estafa no tuvo éxito, sirve como una advertencia sobre las nuevas técnicas utilizadas por los estafadores

El intento de fraude dirigido al CEO de WPP, Mark Read, involucró un sofisticado esquema de deepfake, donde los estafadores crearon una cuenta de WhatsApp con una imagen públicamente disponible de Read y la usaron para organizar una reunión en Microsoft Teams que aparentaba ser con él y otro ejecutivo senior de WPP.

Durante la reunión, señala The Guardian,  los impostores utilizaron un clon de voz del ejecutivo, así como imágenes de YouTube de él. Los estafadores se hicieron pasar por Read fuera de cámara utilizando la ventana de chat de la reunión. Aunque el intento de estafa no tuvo éxito, sirve como una advertencia sobre las nuevas técnicas utilizadas por los estafadores, que van más allá del correo electrónico y aprovechan las reuniones virtuales, la inteligencia artificial y los deepfakes.

La sofisticación de este intento de fraude destaca la creciente amenaza de los deepfakes en el mundo corporativo. En los últimos años, el número de ataques de deepfake ha aumentado considerablemente, utilizando clones de voz generados por IA para engañar a empresas financieras, bancos y departamentos de ciberseguridad. Aunque en este caso el intento de estafa no tuvo éxito, demuestra la necesidad de que las empresas estén alerta y tomen medidas proactivas para protegerse contra este tipo de ataques.

El aumento de la generación de deepfakes de audio plantea desafíos significativos para la seguridad y la integridad de las empresas y sus líderes. La capacidad de los estafadores para crear grabaciones manipuladas de casi cualquier persona utilizando modelos de IA cada vez más realistas es una preocupación creciente.

Se busca que las empresas implementen medidas de seguridad robustas y eduquen a su personal sobre cómo identificar y responder adecuadamente a los intentos de fraude de deepfake.

SUSCRÍBETE AL BOLETÍN

Regístrate para recibir las últimas novedades del Programa de La Publicidad en tu email