Tv en vivo


Delincuentes utilizan inteligencia artificial para clonar voces

Tan solo con 30 minutos de recopilación de la voz en audio se podría suplantarla. ¿Qué medidas se pueden tomar para evitar ser víctima de esta nueva modalidad delincuencial?

Delincuentes utilizan inteligencia artificial para clonar voces

La inteligencia artificial (IA) ha experimentado un impresionante avance en los últimos años, y en la actualidad se encuentra al alcance de cualquier persona con acceso a una computadora o dispositivo conectado a Internet. Si bien esta tecnología se ha convertido en una herramienta útil, también ha generado controversia debido a las implicaciones que puede tener en nuestra sociedad.

Uno de los casos más polémicos relacionados con la IA es el de la clonación de voz, donde los algoritmos y técnicas de aprendizaje automático permiten replicar la voz de las personas de manera sorprendente. Inicialmente, esta capacidad puede parecer divertida y prometedora, e incluso se ha utilizado en numerosas ocasiones para crear memes y contenido humorístico. Sólo bastan 30 minutos de recopilación de la voz en audio para que puedan suplantarla: “La voz de una persona o cualquier tipo de sonido tiene un timbre y tiene unos aspectos muy específicos, el Chat GPT puede llegar a reproducir este tipo de cosas, obviamente, entendiendo algunos procesos de sonidos y demás, pero sí lo puede llegar a hacer”, señala Iván Díaz, gerente de seguridad de ECR Colombia Ciberseguridad.

Sin embargo, como ocurre con cualquier avance tecnológico, existen personas que la utilizan de manera positiva y otras que la emplean con fines delictivos. Lamentablemente, se han registrado numerosos casos de estafas relacionadas con la clonación de voz. Los delincuentes aprovechan material de voz disponible en redes sociales para captar el tono y estilo de una persona y luego extorsionar a sus familiares y amigos cercanos. Esta práctica ilícita plantea serias preocupaciones en cuanto a la privacidad y la seguridad de las personas.

Ante esta situación, es crucial que los usuarios estén conscientes de los riesgos asociados con la clonación de voz y tomen medidas para proteger su información personal. Es importante ser cautelosos al compartir contenido de voz en plataformas en línea y estar alerta ante posibles intentos de extorsión o estafas.

¿CÓMO PREVENIR ESTE TIPO DE EXTORSIÓN?

Evitar compartir grabaciones extensas de voz en plataformas públicas: Al limitar la cantidad de material de voz disponible en línea, se reduce la posibilidad de que los delincuentes obtengan suficiente información para clonar una voz.

Ajustar los términos de privacidad en tus redes sociales: Revisa la configuración de privacidad en tus perfiles de redes sociales y asegúrate de que solo las personas de confianza tengan acceso a tu contenido.

Evitar compartir información personal: Al reducir la cantidad de información personal que compartes en línea, disminuyes las posibilidades de que alguien pueda utilizarla en tu contra.

Establecer una palabra clave con tu familia: Acuerda una palabra o frase secreta con tus seres queridos que puedas utilizar en caso de sospechar que alguien ha suplantado tu identidad. Si reciben una comunicación que parece provenir de ti pero no menciona la palabra clave, sabrán que algo no está bien.

Es importante recordar que la tecnología de inteligencia artificial puede ser beneficiosa cuando se utiliza de manera ética y responsable. Sin embargo, también es fundamental estar conscientes de las posibles implicaciones negativas y tomar medidas para protegernos a nosotros mismos y a nuestros seres queridos.

23 junio 2023

Actualizado el : 23 junio 23 | 4:18 pm

Tags:

También te puede interesar

Latina Televisión | Av. San Felipe 968 - Jesús María | Teléfono: 219 1000