TECHNIK | IT-SICHERHEIT
ce«, sagt Florian Alt, Informatiker an der LMU Mün- chen. »Angreifer setzen gezielt Technik ein, um klares Denken zu verhindern.« Sein Gegenentwurf: Technik einsetzen, um klares Denken zu fördern. Alt und seine Kollegen wollen mithilfe von Sen- soren und künstlicher Intelligenz erkennen, wann jemand einer Social-Engineering-Attacke ausge- setzt ist. Smarte Armbänder können Emotionen und Stress messen, durch Puls und Hautleitwert (Schweiß). Die KI interpretiert die Signale. Alt: »Wenn ich so eine Situation erkenne, hilft es, wenn ich die betroffene Person warnen kann und zum Beispiel dazu bringe, eine kurze Pause einzulegen oder mit jemandem zu sprechen.« Eine smarte Uhr könnte vibrieren: »Achtung, möglicherweise werden Sie gerade gescammt.« Entscheidend ist oft der Kontext: Was macht die Person? E-Mails schreiben, telefonieren – oder är- gert sie sich über den Chef? Das könnte einen Fehl- alarm auslösen. Die Herausforderung: nicht zu viele falsche Warnmeldungen produzieren. »Denn sonst nehmen die Nutzer sie nicht mehr ernst«, sagt Alt. Er erforscht bereits, ob Stimmanalysen Mani- pulationsversuche zuverlässig entlarven können. KI-Auswertungen zeigen: Stimmen verraten er- staunlich viel über Absichten. Alt: »Vielleicht kann man an Stimmmustern er- kennen, dass jemand manipuliert wird und der andere darauf eingeht.« Die Zukunft könnte eine mithörende KI sein – nicht für Inhalte, sondern für das Unsichtbare: den Klang der Manipulation. Nicht Worte würden verraten, was geschieht, son- dern feine Schwingungen, die ein Algorithmus ent- schlüsselt wie ein Lügendetektor. Die KI würde zum digitalen Schutzengel im Hintergrund: Sie erkennt, wenn wir emotional ver- wundbar sind, und warnt, bevor ein Moment der Unachtsamkeit zu einem folgenschweren Fehler wird. Der Sound der Hirnhacker könnte so zum Auslöser eines neuen digitalen Immunsystems werden – eines Spamfilters fürs menschliche Vertrauen.
ES IST DIE PERFEKTE FALLE
Hätte ich nachprüfen können? Natürlich. An- rufen, nachfragen. Aber warum sollte ich misstrau- isch werden? Sasse sieht das Problem: »Viele von uns müssen sehr, sehr viele E-Mails bearbeiten, das machen wir in einem Routinemodus.« Es ist der von Daniel Kahnemann angesprochene Modus des »schnellen Denkens«, in dem jede kritische Stimme verstummt. Wer jede Mail akribisch prüft, kommt kaum noch zum Arbeiten. Die Lösung liegt nicht in perfekten Menschen, sondern in besserer Technik. Unternehmen sollten alle E-Mail-Verifikationsmöglichkeiten nutzen und unseriöse Nachrichten ausfiltern. Sie sollten Netz- werke separieren, damit ein übernommener Account keinen Totalschaden anrichtet. DIGITALER SCHUTZENGEL Forscherinnen und Forscher arbeiten außerdem an Lösungen, bei denen KI der Verteidigung gegen Scam-Betrüger dient. »Wenn ein Social Enginee- ring-Angriff gut gemacht ist, hat man keine Chan-
Spiegelneuronen: Nervenzellen im Gehirn, die uns empfänglich für Manipulationen
machen, weil wir dazu neigen, Menschen, die uns ähnlich erschei- nen, eher zu vertrauen
· Social Engineering ist Scam-Betrug , der auf unsere psychischen Schwachstellen abzielt. · Die Fallzahlen nehmen zu. KI ist zum wichtigen Kompli- zen der Täter geworden. · Schutztechnologien werden entwickelt. Etwa Sensoren , die unsere Reaktionen messen und Scams erkennen.
08/2025 P.M. 29
Made with FlippingBook flipbook maker