¡Atención! Utilizan clonación de voz como nueva modalidad de estafa

Agente especialista en ciberseguridad advierte que el Chat GPT podría convertirse en parte de esta problemática.

La inteligencia artificial (IA) se ha convertido en una herramienta fundamental en estos tiempos; sin embargo, su funcionalidad podría traer consigo grandes consecuencias, más aún si es utilizada para delinquir y perjudicar a las personas.

En Colombia, por ejemplo, las autoridades han advertido a la ciudadanía sobre las estafas telefónicas mediante la clonación de voz. A través de esta nueva modalidad de extorsión, cientos de usuarios podrán verse afectados por robos cibernéticos.

IA PARA LA DELINCUENCIA

Para Iván Díaz, agente especialista en ciberseguridad, las estafas se han sofisticado debido a la clonación de voz, puesto que esta nueva tecnología es tan avanzada que solo requiere poca información de una persona para crear frases u oraciones de la víctima.

“Una de las características de la IA es poder ella misma crear cierto tipo de contenidos, información o comentarios con muy poco”, enfatiza Díaz, no sin antes advertir que el Chat GPT podría, incluso, ser parte de esta problemática.

¿CÓMO NO SER VÍCTIMA DE CLONACIÓN DE VOZ?

Con el propósito de brindar apoyo a las personas para no ser víctimas de extorsión, Alexander Ramírez, representante de ESET Colombia, recomienda a los usuarios no realizar grabaciones extensas de la voz por medio de plataformas públicas.

Del mismo modo, sugiere configurar los ajustes de privacidad en las redes sociales, así como establecer una palabra clave con la familia en caso lleguen a sospechar de que la persona con quien se habla esté suplantando la voz de algún integrante.

24 junio 2023

Actualizado el : 24 junio 23 | 7:45 pm

Tags:

También te puede interesar

Latina Televisión | Av. San Felipe 968 - Jesús María | Teléfono: 219 1000