Roban más de 1 millón de soles con inteligencia artificial que imita voz

Prácticas cotidianas podrían ocasionar que seamos víctimas de estafas. La Policía brinda recomendaciones al respecto.

La inteligencia artificial es capaz de imitar el tono de voz de una persona, lo cual ha ocasionado que se reporten estafas en la actualidad.

«Hay gente que recibe una llamada telefónica y alguien se hace pasar como su hijo, o un familiar que está en apuros. Este pide dinero para que pueda solucionar un problema y la voz es muy similar», dice Luis Huamán, jefe de la Divindat (División de Investigación de Delitos de Alta Tecnología).

Respecto a ello, de acuerdo al Coronel PNP Huamán, los peruanos carecen de cultura de ciberseguridad, puesto que se suelen enviar audios en grupos de WhatsApp con miembros desconocidos.

El jefe de la Divindat sugiere hacer uso de una palabra clave que le permita conocer a las personas que están conversando realmente ellas.

Hasta el momento, se han reportado 94 casos de suplantación que ascienden a un monto total de 1 millón 184 mil soles en dinero robado. Los personajes públicos no dejan de ser víctimas de esta modalidad.

ALUMNOS EDITABAN FOTOS DE SUS COMPAÑERAS PARA VENDERLAS POR REDES SOCIALES

Alumnos del colegio Saint Georgeubicado en Chorrillos, serían los principales sospechosos del ciberacoso que vienen siendo víctimas sus compañeras de clase. ¿La razón? Habrían editado las fotos de las menores para venderlas por redes sociales. 

Padres de familia denunciaron que las imágenes se hallaron en una computadora de la institución. Una alumna que encontró los montajes avisó rápidamente a sus progenitores, quienes presentaron su reclamo en la institución tras conocer el caso. 

Cabe señalar que el material era montado a través de inteligencia artificial para luego ofrecerlo.

10 septiembre 2023

Actualizado el : 10 septiembre 23 | 3:47 pm

Tags:

También te puede interesar

Latina Televisión | Av. San Felipe 968 - Jesús María | Teléfono: 219 1000