“Me decía mi amor”: el falso George Clooney que le robó 15.000 dólares a una argentina
Además de una catarata de caricaturas al estilo Ghibli, los nuevos modelos de inteligencia artificial traen una catarata de videos falsos —mejor conocidos como deepfakes— que tienden a tener o...
Además de una catarata de caricaturas al estilo Ghibli, los nuevos modelos de inteligencia artificial traen una catarata de videos falsos —mejor conocidos como deepfakes— que tienden a tener objetivos maliciosos detrás, como la desinformación o, en casos más graves, una estafa. Y esto último se está volviendo una práctica recurrente. Una argentina fue engañada por varias interacciones con un George Clooney falso y terminó transfiriendo una suma de 15.000 dólares a una cuenta falsa.
Según confesó la víctima, todo comenzó cuando ella hizo un comentario en una foto de George Clooney junto con Leonardo DiCaprio. A partir de ahí, una página que simulaba ser el verificado de George Clooney la contactó para estimularla a que saque la tarjeta de su club de fans. Así, los estafadores la convencieron para que se suscriba a esta membresía y le pidieron diferentes montos de aproximadamente 300 dólares para activar la tarjeta, mandarla y recibirla.
La señora que fue estafada les había comentado en conversaciones a través de Facebook que ella estaba desempleada, y el falso Clooney le prometió que, al hacerse socia, él la ayudaría económicamente y también a conseguir trabajo debido a los contactos que tiene por ser famoso. “Como recibí la tarjeta, pensé que era verdad”, se justificó la señora.
Luego de largas interacciones, los estafadores le pidieron si podía donar 1000 dólares para la fundación de Clooney, que efectivamente existe. La víctima pasó 300 dólares y luego llegó a sumar una cifra de 15.000 dólares en diferentes transferencias. “Clooney” la convenció de que necesitaba un apoyo económico porque se estaba por separar y tenía la cuenta bloqueada para que su mujer no se enterara.
Cecilia Danesi, abogada y directora del máster en Gobernanza Ética de la IA en la Universidad Pontificia de Salamanca, explicó a LA NACION que las estafas en la era digital ya existían. El problema es que ahora se están volviendo cada vez más sofisticadas y se desarrollan desde servidores en países donde la regulación no es fuerte. En este caso, Nigeria y Estados Unidos estuvieron involucrados. “Ahora tenemos la posibilidad de replicar la voz o la imagen de una persona a la perfección, de una manera casi imperceptible para el ojo humano”, señaló.
Al darse cuenta de que estaba siendo víctima de una estafa, la señora presentó tres reportes al FBI. En esta instancia, ya los estafadores habían generado videos con inteligencia artificial que imitaban la apariencia y la voz de George Clooney a un nivel bastante verosímil y que intentaban seducir a la mujer para convencerla de que esto era verdad. “Me decía ‘mi amor’ y que me iba a devolver la plata”, detalló. Por el momento, la mujer sigue a la espera de una respuesta de los organismos legales en los que levantó su reclamo.
Y este es un problema creciente alrededor de todo el mundo. En China, una de las mayores estafas son de grupos que hacen videollamadas o llamadas por teléfono simulando ser los familiares o seres cercanos de la víctima para pedirles que transfieran dinero. Pero también se traslada a otras intenciones. El año pasado, votantes de la ciudad de Nueva Hampshire recibieron llamadas simulando ser Joe Biden que los incentivaba a no votar en las elecciones primarias.
Aunque las principales víctimas son las empresas privadas. En esta línea, un reporte de Regula, una empresa de ciberseguridad, aseguró que se duplicaron las estafas por fraude: el 49% de las empresas ya son afectadas por estafas de audio y video. Jorge Luis Litvin, abogado especialista en cibercrimen y ciberseguridad, explicó a LA NACION que la oleada de estafas se basa en la suplantación de identidad de directivos y gerentes que ordenan transferencias o solicitan información sensible. “Los delincuentes suelen recurrir a técnicas mucho más simples, porque la falta de conciencia, tanto en la sociedad como en las organizaciones, sigue dejándonos vulnerables”, dijo.
En términos legales, Litvin manifestó que la gran deuda es la ausencia de un tipo penal que castigue la suplantación de identidad. De acuerdo con el profesional, fuera de la Ciudad Autónoma de Buenos Aires, donde apenas se considera contravención, no existe una figura específica y muchas veces se mete este delito en la bolsa de las estafas o fraudes. “El problema no radica en la cantidad de leyes, sino en su aplicación. La falta está vinculada a códigos procesales desactualizados que imponen métodos de investigación obsoletos y dificultan el éxito de las causas, así como la falta de capacitación para los operadores judiciales”, detalló.
Pero, mientras tanto, ¿cómo se puede intentar no caer en estas estafas? Ambos especialistas coincidieron en que la concientización y la educación son el primer remedio. “La primera defensa es cultural”, aseguró Litvin. Por un lado, se pueden hacer doble verificaciones humanas cuando te llega un pedido de este tipo. Por ejemplo, pedir una palabra clave establecida antes entre vos y tus familiares o seres queridos. Por otro lado, se puede hacer una verificación doble: reconfirmar la información por otra fuente oficial, por ejemplo, el club de fans de George Clooney.
Litvin propone que los usuarios también hagan una “higiene digital” en la que establezcan doble factor de autenticación para proteger cuentas, perfiles privados y hacer pública la mínima información personal posible. Así, mientras menos material tuyo circule, menos materia prima hay para entrenar a los modelos que permiten clonarnos. Además, alertó sobre ciertas señales básicas de advertencia que uno debe tener en cuenta para identificar este tipo de prácticas: cuando hay mucha urgencia, ofertas demasiado buenas, advertencias perjudiciales o contacto a través de figuras famosas.
Desde una línea más macro, Danesi aseguró que tanto los gobiernos como las plataformas digitales tienen que dar capacitaciones en gobernanza y ética de la inteligencia artificial. Además, sugirió que las nuevas tecnologías tienen que estar al servicio para detectar estas estafas. Es decir, usarlas también para atacar el problema. “Necesitamos que haya un sistema de inteligencia artificial desarrollado a este propósito de detectar estas fallas de seguridad”, insistió.
En paralelo a los deepfakes, la inteligencia artificial se está usando de otras maneras maliciosas, como para segmentar y perfilar a sus víctimas con exactitud, identificar sistemas vulnerables o desarrollar códigos maliciosos. “El peligro de fondo es que la IA ha bajado drásticamente la barrera de entrada al cibercrimen, una industria ilícita que antes exigía un alto expertise técnico y hoy puede delegar buena parte de ese conocimiento a la propia tecnología”, planteó Litvin. “El riesgo no reside en la herramienta, sino en su uso”, continuó.