Estafan a empresario utilizando inteligencia artificial

InsĆ³lita estafa en China. Un empresario perdiĆ³ mĆ”s de 600 000 dĆ³lares despuĆ©s de que un hombre modificara su apariencia con la inteligencia artificial para engaƱarlo.

La vĆ­ctima, del que sĆ³lo se publicĆ³ el apellido, Guo, explicĆ³ que recibiĆ³ en abril una llamada por video de alguien cuyo rostro y voz se parecĆ­an mucho a su amigo. Sin embargo, esa persona era en realidad un timador que utilizĆ³ Ā«una tecnologĆ­a de inteligencia artificial para modificar su caraĀ», segĆŗn publicaron medios locales.

El estafador, de acuerdo con el testimonio de la vĆ­ctima, asegurĆ³ como pretexto que otro amigo necesitaba urgentemente dinero para pagar un depĆ³sito de garantĆ­a para una licitaciĆ³n. Fue asĆ­ como consiguiĆ³ convencer a Guo de transferir 4,3 millones de yuanes (610 000 dĆ³lares) desde la cuenta bancaria de su empresa.

Ā«Durante la llamada por video, estaba convencido de haber reconocido la cara y la voz de la persona que me llamaba, por eso no desconfiĆ©Ā», declarĆ³ el empresario.

Lea tambiƩn:

DespuĆ©s de hacer el pago, Guo enviĆ³ un mensaje al amigo cuya identidad habĆ­a sido usurpada. Ɖl estaba desconcertado de lo que le decĆ­a pues no estaba al tanto de nada. De inmediato, el empresario se dio cuenta del error y llamĆ³ a la policĆ­a.Ā 

La policĆ­a ordenĆ³ al banco no llevar a cabo la transferencia y Guo pudo recuperar 3,4 millones de yuanes (482 000 dĆ³lares). Hasta la fecha, los autores del timo no fueron identificados.

El uso de la inteligencia artificial, a veces con fines malintencionados, ha levantado desconfianza en el mundo. Tanto que algunas empresas, escuelas y otras instituciones han prohibido su uso a empelados y estudiantes.

AdemĆ”s, la empresa estadounidense OpenAI lanzĆ³ en noviembre ChatGPT, un robot conversacional que puede imitar la voz humana.Ā Esta interfaz no es accesible en China, pero ChatGPT es un tema del que se habla mucho en las redes sociales y los gigantes tecnolĆ³gicos chinos hacen todo lo posible para crear dispositivos parecidos. AFP

TambiƩn en Teleamazonas: