Agente especialista en ciberseguridad advierte que el Chat GPT podría convertirse en parte de esta problemática.
La inteligencia artificial (IA) se ha convertido en una herramienta fundamental en estos tiempos; sin embargo, su funcionalidad podría traer consigo grandes consecuencias, más aún si es utilizada para delinquir y perjudicar a las personas.
En Colombia, por ejemplo, las autoridades han advertido a la ciudadanía sobre las estafas telefónicas mediante la clonación de voz. A través de esta nueva modalidad de extorsión, cientos de usuarios podrán verse afectados por robos cibernéticos.
Para Iván Díaz, agente especialista en ciberseguridad, las estafas se han sofisticado debido a la clonación de voz, puesto que esta nueva tecnología es tan avanzada que solo requiere poca información de una persona para crear frases u oraciones de la víctima.
“Una de las características de la IA es poder ella misma crear cierto tipo de contenidos, información o comentarios con muy poco”, enfatiza Díaz, no sin antes advertir que el Chat GPT podría, incluso, ser parte de esta problemática.
Con el propósito de brindar apoyo a las personas para no ser víctimas de extorsión, Alexander Ramírez, representante de ESET Colombia, recomienda a los usuarios no realizar grabaciones extensas de la voz por medio de plataformas públicas.
Del mismo modo, sugiere configurar los ajustes de privacidad en las redes sociales, así como establecer una palabra clave con la familia en caso lleguen a sospechar de que la persona con quien se habla esté suplantando la voz de algún integrante.
Te puede interesar:
También te puede interesar