Cómo protegerse de las estafas de IA durante las fiestas

No se deje engañar por una estafa realizada con herramientas de inteligencia artificial durante esta temporada navideña. El FBI emitió un anuncio de servicio público a principios de este mes, advirtiendo que los delincuentes están explotando la inteligencia artificial para llevar a cabo fraudes más grandes de formas más creíbles.

Si bien las herramientas de inteligencia artificial pueden ser útiles en nuestra vida personal y profesional, también pueden usarse en nuestra contra, dijo Shaila Rana , profesora de ciberseguridad en Purdue Global. "[Las herramientas de inteligencia artificial] son ​​cada vez más baratas [y] más fáciles de usar. Están reduciendo la barrera de entrada para los atacantes, de modo que los estafadores pueden crear estafas muy convincentes".

Existen algunas prácticas recomendadas para protegerse contra estafas en general, pero con el auge de la IA generativa, aquí hay cinco consejos específicos a tener en cuenta.

Tenga cuidado con los sofisticados ataques de phishing

Según Eman El-Sheikh , vicepresidente asociado del Centro de Ciberseguridad de la Universidad de West Florida, las estafas más comunes habilitadas con inteligencia artificial son los ataques de phishing . El phishing se produce cuando actores maliciosos intentan obtener información confidencial para cometer delitos o fraudes. "[Los estafadores están utilizando] inteligencia artificial generativa para crear contenido que parece auténtico pero que, de hecho, no lo es", dijo El-Sheikh.

"Antes le decíamos a la gente: 'busquen errores gramaticales, busquen faltas de ortografía, busquen algo que no suene bien'. Pero ahora, con el uso de la inteligencia artificial... puede ser extremadamente convincente", dijo Rana a NPR.

Sin embargo, conviene comprobar si hay indicios sutiles de que un correo electrónico o un mensaje de texto puede ser fraudulento. Compruebe si hay errores ortográficos en el nombre de dominio de las direcciones de correo electrónico y busque variaciones en el logotipo de la empresa. "Es muy importante prestar atención a esos detalles", afirma El-Sheikh.

Crea una palabra clave con tus seres queridos

Las estafas de voz clonada por IA están en aumento, dijo Rana a NPR. "Los estafadores solo necesitan unos segundos de tu voz en las redes sociales para crear un clon", dijo. Combinando los datos personales que encuentran en línea, los estafadores pueden convencer a las víctimas de que son sus seres queridos.

Las estafas de emergencia familiar o " estafas de los abuelos " consisten en llamar a la víctima, crear una sensación extrema de urgencia haciéndose pasar por un ser querido en apuros y pedirle dinero para sacarlo de una mala situación. Un esquema común es decirle a la víctima que su ser querido está en la cárcel y necesita dinero para pagar la fianza.

Rana recomienda crear una contraseña secreta para usar con la familia. "Así que si alguien llama diciendo que está en problemas o que no está seguro, pida la contraseña y luego [cuelgue y] vuelva a llamar a su número real para verificar", dijo.

También puede protegerse de este tipo de estafas filtrando sus llamadas. "Si alguien lo llama desde un número que no reconoce y que no está en sus contactos, puede enviarlo automáticamente al buzón de voz", dice Michael Bruemmer , director del grupo global de resolución de violaciones de datos de la empresa de informes crediticios Experian.

Bloquea tus cuentas de redes sociales
" Las cuentas de redes sociales pueden ser copiadas o extraídas de la pantalla", advirtió Bruemmer. Para evitar la suplantación de identidad, reduzca su huella digital. "Configure las cuentas de redes sociales como privadas, elimine los números de teléfono de los perfiles públicos. Y simplemente tenga cuidado y limite la información personal que comparte públicamente", dijo Sana. Dejar públicos sus perfiles de redes sociales "hace que sea más fácil para los estafadores obtener una mejor imagen de quién es usted, [y] pueden usar [eso] en su contra", dijo.

Los estafadores sofisticados obtendrán información de las cuentas de redes sociales para crear mensajes más personalizados para sus víctimas previstas.

Verifique cuidadosamente la dirección web antes de ingresar cualquier información confidencial

Los estafadores pueden usar la IA para crear sitios web falsos que parezcan legítimos. El FBI señala que la IA puede utilizarse para generar contenido para sitios web fraudulentos de estafas con criptomonedas y otros tipos de esquemas de inversión. También se ha informado de que los estafadores incorporan chatbots con tecnología de IA en estos sitios web con el objetivo de incitar a las personas a hacer clic en enlaces maliciosos.

"Siempre debes revisar la ventana de tu navegador... y asegurarte de que [estás en] un sitio encriptado. [Comienza] con https://", dijo Bruemmer. También dijo que para asegurarse de que el dominio del sitio web esté escrito correctamente, "[los sitios web fraudulentos] pueden tener una URL que tenga solo una letra o carácter de diferencia".

Si aún no estás seguro de si el sitio web que estás usando es legítimo, puedes intentar buscar la antigüedad de un sitio buscando en las bases de datos de búsqueda de dominios WhoIs . Rana dijo que hay que tener mucho cuidado con los sitios web que se crearon recientemente. Amazon, por ejemplo, se fundó en 1994. Si la base de datos WhoIs dice que el sitio "Amazon" que estás buscando se creó en este milenio, sabes que estás en el lugar equivocado.

Desconfíe de las fotos y los vídeos que le incitan a enviar dinero.

El FBI advierte que se han utilizado herramientas de inteligencia artificial generativa para crear imágenes de desastres naturales y conflictos globales con el fin de conseguir donaciones para organizaciones benéficas fraudulentas . También se han utilizado para crear imágenes o vídeos deepfake de personajes famosos que promocionan esquemas de inversión y productos inexistentes o falsificados.

Cuando te encuentres con una foto o un vídeo que te invite a gastar dinero, ten cuidado antes de hacerlo. Busca señales reveladoras comunes de que un contenido multimedia podría ser un deepfake. Como informó Shannon Bond para NPR en 2023, cuando se trata de crear fotos, los generadores de IA "pueden tener dificultades para crear manos, dientes y accesorios realistas como gafas y joyas". Los vídeos generados por IA suelen tener sus propias señales, "como ligeros desajustes entre el sonido y el movimiento y bocas distorsionadas. A menudo carecen de expresiones faciales o movimientos corporales sutiles que hacen las personas reales", escribió Bond.

"Es muy importante que todos seamos responsables en un mundo digital impulsado por la inteligencia artificial y lo hagamos a diario... especialmente ahora, en épocas de fiestas, cuando hay un aumento de este tipo de delitos y estafas", dijo El-Sheikh.

Fuente

GPB