Este año, el auge de la inteligencia artificial (IA) ha dado lugar a una preocupante oleada de estafas que utilizan esta tecnología para sofisticar sus métodos y engañar a las personas en grandes cantidades. Entre las tácticas más comunes están los videos en redes sociales que suplantan a figuras prominentes de la política, el periodismo y el entretenimiento que recomiendan inversiones en negocios; con la promesa de asegurar grandes ganancias, pero en realidad se trata de herramientas generativas que modulan su aspecto y su voz.
Según la Encuesta Global de Seguridad Online 2024 de Microsoft, el 71% de los usuarios considera las estafas como su principal preocupación en relación con los problemas potenciales que puede generar la IA. En segundo lugar, un 69% de los encuestados señala las deepfakes y el abuso sexual en línea como problemas significativos. Otras preocupaciones incluyen las alucinaciones generadas por herramientas generativas (66%), la privacidad de los datos (62%) y la amplificación de prejuicios (60%).
Uno de los casos más sonados al respecto fue el de la virtual presidenta electa de México, Claudia Sheinbaum. En un video se utilizó su imagen para invitar a la población a un nuevo programa social de inversiones a corto plazo, en el que “invertir 4,000 pesos te proporciona acceso a un ingreso mensual de 120,000 pesos”. El contenido fue eliminado de internet, se aclaró que se trataba de una estafa y se indicó hacer caso omiso a esa información falsa.
Tal es el revuelo por los deepfakes que incluso plataformas como YouTube se han comprometido a eliminar contenidos en los que se detecte el uso de la IA en videos, sin embargo, es necesario que sean los usuarios quienes levanten el reporte correspondiente.
Facebook e Instagram, por su parte, indican que 7 de cada 10 personas pueden ser víctimas de este nuevo método de estafa. Aunque la propagación de esta amenaza y sus consecuencias pueden dañar la reputación, privacidad y finanzas de instituciones, al igual que de los usuarios, datos de Kaspersky, empresa de ciberseguridad, indican que la mayoría de los mexicanos no conoce el concepto de deepfake (72%) ni sabría identificar este tipo de contenido (62%). Esta falta de conocimiento aumenta la vulnerabilidad de las personas frente a contenidos fraudulentos basados en esta técnica.
Es por tal situación que C3ntro Telecom, empresa líder en soluciones de ciberseguridad, tecnología y omnicanalidad, comparte algunos consejos para que los usuarios de redes sociales puedan tener herramientas en contra de las estafas digitales hechas con IA.
Identifica las señales: Los deepfakes usan, mediante algoritmos, el rostro y/o voz de una persona para hacerle actuar predeterminadamente. Es importante poner atención a la forma en que el personaje se mueve en el video, por ejemplo, si su cabeza sigue un patrón de movimiento, su boca no se abre mucho o sus gestos corporales parecen torpes y presenta bordes borrosos, seguramente es simulación con IA.
Conozca el formato: Estos contenidos en redes sociales se comparten como publicidad y tienden a presentar figuras de importancia política o social por su amplio alcance y nivel de influencia sobre los demás. Otro factor para tomar en cuenta es que siempre buscan invitar a las personas a usar dinero real y a bajar otras aplicaciones o seguir enlaces para acceder de forma inmediata a lo que anuncian.
Crear cultura de prevención: Es importante comenzar a cuestionarse los motivos de las cosas que se consumen y comparten en redes sociales. Los deepfakes se crean con dos motivos principales: desinformar y estafar. Para restar su viralización, no hay que pasarlos por alto y buscar, según la plataforma, la opción de reporte o denuncia sobre la publicación hecha con IA. Esto acostumbrará a su algoritmo a no presentarle post relacionados y evitará que llegue a más usuarios.
Estar atento en la navegación: Las principales redes sociales ya han implementado modelos de IA para avisar a los consumidores de qué contenidos fueron hechos a partir de herramientas generativas. Es relevante que durante el uso de estas plataformas se distinga la etiqueta para no caer en desinformación o simulaciones.
Proteja su información: Restringir su perfil de Facebook y pedir autorización para comenzar a seguirlo en X o Instagram son un buen inicio para poner límites sobres quiénes pueden acceder a sus imágenes o fotografías que contengan su información biométrica. Así mismo, no participar en trends de tiktok que usen IA para crear videos o imágenes es buena opción para no subir, sin saberlo, sus datos a servidores de terceros.
Combatir el analfabetismo digital es esencial para prevenir estafas con deepfakes, ya que una población bien informada puede identificar contenido manipulado y reducir la probabilidad de ser engañada. Estas medidas promueven la cautela ante la información sospechosa y disminuyen la vulnerabilidad frente a fraudes. Asimismo, comprender las tecnologías emergentes, así como sus riesgos permite a los usuarios implementar medidas de seguridad más efectivas para proteger sus datos personales.