«Millones» de personas podrían ser víctimas de estafas que utilicen
inteligencia artificial para clonar sus voces, advirtió Starling Bank, un
banco del Reino Unido.
Starling Bank, un prestamista que solo opera en línea, dijo que
los estafadores son capaces de usar inteligencia artificial para replicar
la voz de una persona a partir de solo tres segundos de audio
que se encuentra, por ejemplo, en un video que la persona ha publicado en
línea. Luego, los estafadores pueden identificar a los amigos y familiares de
la persona y usar la voz clonada por IA para realizar una llamada telefónica y
pedir dinero.
Este tipo de estafas tienen el potencial de «engañar a millones», dijo
Starling Bank en un comunicado de prensa el miércoles. Ya han afectado a
cientos. Según una encuesta de más de 3.000 adultos que el banco realizó con
Mortar Research el mes pasado, más de una cuarta parte de los encuestados
dijeron que habían sido blanco de una estafa de clonación de voz de IA en los
últimos 12 meses.
La encuesta también mostró que el 46% de los encuestados no sabía que existían
este tipo de estafas y que el 8% enviaría tanto dinero como lo solicitara un
amigo o familiar, incluso si pensaban que la llamada les parecía extraña.
«La gente publica regularmente contenido en línea que tiene grabaciones de
su voz, sin siquiera imaginar que eso los hace más vulnerables a los
estafadores», dijo Lisa Grahame, directora de seguridad de la información de Starling
Bank, en el comunicado de prensa.
El banco
está animando
a las personas a acordar una «frase segura» con sus seres queridos (una
frase simple y aleatoria que es fácil de recordar y diferente de sus otras
contraseñas) que puede usarse para verificar su identidad por teléfono.
Los prestamistas desaconsejan compartir la frase segura a través de mensajes
de texto, lo que podría facilitar que los estafadores la descubran, pero, si
se comparte de esta manera, el mensaje debe eliminarse una vez que la otra
persona lo haya visto.
A medida que la IA se vuelve cada vez más experta en imitar voces humanas,
aumentan las preocupaciones sobre su potencial para dañar a las personas, por
ejemplo, ayudando a los delincuentes a acceder a sus cuentas bancarias y
difundiendo información errónea.
A principios de este año, OpenAI, el fabricante del chatbot de IA generativa
ChatGPT, presentó su herramienta de replicación de voz,
Voice Engine, pero no la puso a disposición del público en ese momento, citando el
«potencial de uso indebido de la voz sintética».
Fuente:
CNN
