Cyberkriminelle nutzen ChatGPT, Grok und bezahlte Google-Anzeigen, um massenhaft Anweisungen zu verbreiten, die schädliche Aktionen ausführen. Sie veröffentlichen offene Dialoge zu beliebten Suchanfragen und bringen die Chatbots dazu, gefährliche Befehle zu generieren, die sie dann als Werbeergebnisse bewerben.
Mechanik der Verbreitung der Angriffe
Sicherheitsexperten haben Fälle dokumentiert, in denen dieser Ansatz zur Infizierung von Systemen eingesetzt wurde. In einem Fall stieß ein Nutzer, der nach einer Methode zur Festplattenbereinigung suchte, in den Suchergebnissen auf eine Antwort eines Chatbots und führte den vorgeschlagenen Befehl aus — das führte zur Infektion mit dem macOS-Schädling AMOS.
Verwundbarkeit der Nutzer und Ratschläge
Der Angriff erforderte weder das Herunterladen einer Datei noch die Installation einer Anwendung: die Anweisung sah wie ein gewöhnlicher Rat der Künstlichen Intelligenz aus. Diese Methode umgeht gängige Schutzmechanismen, weil viele Menschen den Google-Ergebnissen und den Hinweisen von Chatbots vertrauen und beim Kopieren eines Befehls kein Risiko vermuten.
Einer der Werbelinks wurde bereits aus der Suche entfernt, obwohl er in den Ergebnissen mindestens einen halben Tag nach dem Bekanntwerden der Warnung weiterhin erschien. Experten raten, keine Befehle in Terminal oder Browser einzufügen, wenn nicht 100 % Sicherheit über deren Unbedenklichkeit besteht.
Parallel zu dieser Masche nimmt die Zahl anderer Bedrohungen zu: der iPhone-Hersteller warnte vor einem Angriff durch Spyware, gefälschte Android-Apps stehlen Geld und Daten, und Angreifer haben auch gelernt, das Gemini-System zu täuschen, um Nutzerdaten zu stehlen.