Noticias
07/09/23, 13:15:10
Deepfakes de voz: la nueva herramienta de los ciberdelincuentes
https://static.htcmania.com/2023-09-07-12-10-01-07092023-36058-htcmania.webp
Clive Kabatznik, inversor de Florida, estuvo cerca de ser víctima de un timo a través de tecnología deepfake. Kabatznik solicitó una transferencia bancaria a su entidad, Bank of America, pero poco después el banco recibió otra llamada de alguien que imitaba la voz de Kabatznik, pidiendo redirigir la transferencia. Se descubrió que se había utilizado una tecnología deepfake para clonar su voz. Aunque la estafa fue descubierta gracias a inconsistencias en el habla de la voz clonada, el incidente muestra una creciente amenaza. No es un caso aislado; empresas como Pindrop, que supervisan tráfico de audio para bancos, han notado un aumento en intentos de fraudes de voz. Estas tecnologías se están sofisticando y las voces falsas cada vez son más realistas. Los estafadores usan varias herramientas, incluida la compra de datos personales en la dark web, para perpetrar estos delitos. Especialmente en riesgo están personas con alta visibilidad pública, como grandes inversores o directivos, ya que su voz puede ser extraída de grabaciones disponibles en internet. Según Pindrop, de las más de 5,000 millones de llamadas que han revisado, un número significativo procede de estafadores. Aunque las estafas con deepfake de voz suelen ser aún rudimentarias, con voces que suenan robóticas, se espera que mejoren sus técnicas, lo que podría aumentar significativamente el número de estafas exitosas.
fuente (https://www.genbeta.com/actualidad/historia-como-voz-hecha-deepfake-puede-robar-mucho-dinero-asi-se-logra-imitar-voz-otra-persona)
https://static.htcmania.com/2023-09-07-12-10-01-07092023-36058-htcmania.webp
Clive Kabatznik, inversor de Florida, estuvo cerca de ser víctima de un timo a través de tecnología deepfake. Kabatznik solicitó una transferencia bancaria a su entidad, Bank of America, pero poco después el banco recibió otra llamada de alguien que imitaba la voz de Kabatznik, pidiendo redirigir la transferencia. Se descubrió que se había utilizado una tecnología deepfake para clonar su voz. Aunque la estafa fue descubierta gracias a inconsistencias en el habla de la voz clonada, el incidente muestra una creciente amenaza. No es un caso aislado; empresas como Pindrop, que supervisan tráfico de audio para bancos, han notado un aumento en intentos de fraudes de voz. Estas tecnologías se están sofisticando y las voces falsas cada vez son más realistas. Los estafadores usan varias herramientas, incluida la compra de datos personales en la dark web, para perpetrar estos delitos. Especialmente en riesgo están personas con alta visibilidad pública, como grandes inversores o directivos, ya que su voz puede ser extraída de grabaciones disponibles en internet. Según Pindrop, de las más de 5,000 millones de llamadas que han revisado, un número significativo procede de estafadores. Aunque las estafas con deepfake de voz suelen ser aún rudimentarias, con voces que suenan robóticas, se espera que mejoren sus técnicas, lo que podría aumentar significativamente el número de estafas exitosas.
fuente (https://www.genbeta.com/actualidad/historia-como-voz-hecha-deepfake-puede-robar-mucho-dinero-asi-se-logra-imitar-voz-otra-persona)