hackers usan inteligencia artificial para mejorar sus estafas
17 abril 2023 /EL FINANCIERO/
Orlando Cisneros recibió un mail de su jefa para encargarle la encomienda urgente de comprar 10 tarjetas de regalo para premiar a los trabajadores más destacados de la oficina. Le explicó que no podía llamarle, pero le indicó que una vez que tuviera los plásticos necesitaba enviarle a su mail las fotos de la decena de códigos, para que le pudiera bonificar lo que había gastado.
“Cuando entré a la tienda a comprar las tarjetas pensé que era raro que me pidiera que le enviara fotos de los códigos. Solo ahí, sospeché algo, reabrí los mails para ver la cuenta y noté que el mail, aunque era parecido al de mi jefa, tenía una pequeña variación, así que le escribí por WhatsApp para preguntarle si ella estaba enviando esa encomienda, sólo ahí me di cuenta que era una estafa, pero estuve a punto de perder casi 20 mil pesos en ese fraude”, relató Cisneros.
La estafa fue orquestada por ciberdelincuentes que utilizan plataformas de inteligencia artificial como ChatGPT y PassGAN, para suplantar de forma sencilla miles de identidades y lanzar bots masivos con peticiones de contraseñas, tarjetas de regalo o transferencias de dinero, con muy poco esfuerzo y en apenas unos minutos.
Por ejemplo, ChatGPT tiene la capacidad de procesar y generar texto de forma similar a como lo haría una persona, puede responder preguntas sobre una variedad de temas, traducir textos, chatear, generar imágenes, contenido nuevo y producir código funcional, el problema, según expertos en ciberseguridad, es que también abre un amplio espectro de posibilidades para facilitar actividades delictivas.
De acuerdo con la firma de ciberseguridad ESET, ChatGPT ya se usa por los cibercriminales para desarrollar código malicioso, perpetrar ataques de phishing, para el robo de identidad, para crear chats maliciosos y hasta para delitos específicos como el terrorismo y la explotación sexual infantil.
“Los cibercriminales están utilizando los aplicativos de AI para crear identidades sintéticas, es decir que crean una falsa identidad a partir de información desarrollada por una inteligencia artificial como ChatGPT, pero también por otros aplicativos que facilitan la creación de imágenes de personas que realmente parecen humanos, esto les abre la posibilidad de permanecer en el anonimato y cometer distintos delitos”, advirtió Ramón Castillo, especialista en Seguridad de la Información de Forcepoint.
Este ‘lado oscuro’ de las aplicaciones de IA ha generado gran preocupación a nivel mundial, a tal punto que Elon Musk y otros líderes tecnológicos pidieron una pausa en la carrera de la IA por considerar que está fuera de control. Incluso la Organización de las Naciones Unidas (ONU) también emitió una alerta, pues asegura que borran las diferencias entre la ficción y la realidad, pero también trae riesgos que aún son desconocidos.
“La irrupción de estas herramientas nos ha despertado a una realidad sumamente compleja porque ahora surge la duda de cómo gestionar un mundo en el que la tecnología tendrá cada vez más protagonismo. Detrás de ello se esconden toda una serie de dilemas éticos que devienen de dichos avances”, sostuvo Carlos Mats, CEO de IKA, una startup de IA para el metaverso.
IA vigila a la humanidad
En la actualidad estamos siendo permanentemente observados, lo que hacemos o dejamos de hacer es analizado por algoritmos que alimentan al Big Data y con toda la información que tienen de nosotros nos conocen mejor que cualquier persona cercana.
“Aunque la inteligencia artificial está ya muy avanzada y cada vez nos sorprende más y más, hay que dejar claro que aún estamos en las primeras etapas de su desarrollo, hoy en día la IA nos vigila constantemente porque tiene que aprender de nosotros, porque su inteligencia se basa en la inteligencia humana. Cada vez que usamos una app que tiene IA, le estamos enseñando a desarrollar una inteligencia cada vez más parecida a la nuestra”, alertó el CEO de IKA.
Aseguró que hay muchas aplicaciones que utilizan IA, pero muchas personas lo desconocen, como es el caso de Facebook, Google, Instagram, TikTok, cuya vigilancia nunca cesa.
“Todo el tiempo están generando y enviando información del comportamiento de las personas, incluso aunque no se esté utilizando el dispositivo móvil, las aplicaciones envían información de a dónde se desplaza el usuario, a qué hora pone su alarma, a qué hora utiliza el celular y otra información que es clave para educar a la IA”, comentó.
Según Carlos Mats, la IA apenas ha dado sus primeros pasos y aunque son muy importantes, el desarrollo de esta tecnología es apenas el comienzo de una serie de avances en la materia.