jueves, enero 15, 2026
4.7 C
Madrid

Los atacantes utilizan ChatGPT para engañar a los usuarios de Mac para que instalen MacStealer

Share

- Advertisement -spot_img

Los investigadores de seguridad han descubierto que los atacantes están utilizando ChatGPT para engañar a los usuarios de Mac para que peguen una línea de comando en la Terminal que instala malware. En concreto, instala MacStealer, que permite al atacante obtener contraseñas, archivos y datos de tarjetas de crédito de iCloud.

El ataque se dirigió a personas que buscaban en Google instrucciones sobre cómo liberar espacio en el disco de una Mac…

Engadget Sam Chapman dice que ha estado siguiendo la creciente tendencia de utilizar la IA para encontrar nuevas formas de implementar estafas de la vieja escuela cuando descubrió el informe de la empresa de ciberseguridad Huntress.

Aparentemente, los piratas informáticos están utilizando indicaciones de IA para introducir comandos peligrosos en los resultados de búsqueda de Google. Cuando los ejecutan usuarios desconocidos, estos comandos solicitan a las computadoras que brinden a los piratas informáticos el acceso que necesitan para instalar malware.

Los atacantes mantuvieron una conversación con ChatGPT en la que introdujeron el comando Terminal, hicieron público el chat y luego pagaron a Google para promocionar el enlace. Huntress dijo que esto lo hizo aparecer en la parte superior de los resultados de búsqueda de Google para liberar espacio en disco en una Mac.

La víctima había buscado «Borrar espacio en disco en macOS». Google mostró dos resultados altamente clasificados en la parte superior de la página, uno que dirige al usuario final a una conversación ChatGPT y el otro a una conversación Grok. Ambos estaban alojados en sus respectivas plataformas legítimas. Ambas conversaciones ofrecieron una guía cortés y paso a paso para la solución de problemas. Ambos incluían instrucciones y comandos de Terminal macOS presentados como instrucciones de “limpieza segura del sistema”.

El usuario hizo clic en el enlace ChatGPT, leyó la conversación y ejecutó el comando proporcionado. Creían que estaban siguiendo los consejos de un asistente de inteligencia artificial confiable, entregados a través de una plataforma legítima, que aparece en un motor de búsqueda que usan todos los días. En cambio, acababan de ejecutar un comando que descargaba una variante del ladrón AMOS que recopilaba silenciosamente su contraseña, la escalaba a la raíz y desplegaba malware persistente.

- Advertisement -[the_ad id="615"]

Lo mismo se hizo con el chatbot Grok de X. Los términos de búsqueda dirigidos fueron:

  • Liberar almacenamiento en Mac
  • Limpiar espacio en disco en macOS
  • Cómo borrar datos en iMac
  • Borrar datos del sistema en iMac

Es un enfoque preocupantemente inteligente porque evita todas las protecciones integradas de macOS, lo que permite al usuario instalar el malware sin advertencias. Explota el hecho de que la gente confía en las marcas conocidas tanto de Google como de ChatGPT.

La opinión de 9to5Mac

Pegar comandos en la Terminal sin entenderlos es algo peligroso en el mejor de los casos. Si lo hace, debe asegurarse de confiar absolutamente en la fuente. Los resultados patrocinados en Google no son nada fiables.

Sería extremadamente fácil para un usuario no técnico caer en esto, por lo que es posible que desees alertar a tus familiares y amigos.

Accesorios destacados

Foto de Ilya Pavlov en Unsplash

LEER  ¿Qué hay de nuevo en iOS 26.3 Beta 1? Características clave
- Advertisement -spot_img

Leer más

- Advertisement -spot_img

Recomendar noticias