- KI senkt die Einstiegshürde für Angreifer dramatisch: Personalisiertes Phishing, überzeugende Deepfakes und automatisierte Schwachstellensuche sind mit frei verfügbaren Tools möglich.
- Auf der Verteidigerseite verbessert KI die Anomalie-Erkennung, beschleunigt die Incident Response und reduziert False Positives in SIEM-Systemen.
- Die größte akute Gefahr für Unternehmen ist nicht der KI-gestützte Angriff, sondern der unkontrollierte Abfluss vertraulicher Daten an KI-Dienste durch die eigenen Mitarbeiter.
- Jedes Unternehmen braucht eine KI-Richtlinie, die regelt, welche Daten in welche KI-Tools eingegeben werden dürfen und welche Anwendungsfälle freigegeben sind.
- KI ersetzt weder Security-Experten noch grundlegende Sicherheitsmaßnahmen. Sie ist ein mächtiges Werkzeug, das bestehende Prozesse verstärkt, aber solide Grundlagen voraussetzt.
Zwischen Hype und Realität
Es vergeht kaum eine Woche, in der nicht ein neuer Artikel verkündet, dass KI entweder die Cybersicherheit revolutioniert oder die Apokalypse einläutet. Die Wahrheit liegt, wenig überraschend, dazwischen. Künstliche Intelligenz verändert die Cybersicherheitslandschaft tatsächlich fundamental, aber nicht auf die plakative Weise, die Schlagzeilen suggerieren.
Was tatsächlich passiert: KI macht bestehende Angriffsmethoden effektiver, zugänglicher und schwerer erkennbar. Gleichzeitig gibt sie Verteidigern leistungsfähigere Werkzeuge an die Hand, um Bedrohungen zu erkennen und darauf zu reagieren. Und sie schafft eine ganz neue Risikokategorie, weil Unternehmen KI-Tools nutzen, ohne deren Sicherheitsimplikationen vollständig zu verstehen.
Für den Mittelstand ist eine nüchterne Einordnung wichtiger als Alarmismus. Du brauchst kein Millionenbudget für KI-gestützte Sicherheitslösungen. Aber du brauchst ein Verständnis dafür, wie KI die Bedrohungslage verändert, welche Chancen sie bietet und welche neuen Risiken die KI-Nutzung in deinem Unternehmen mit sich bringt.
KI als Werkzeug für Angreifer
Die verfügbare KI-Technologie hat die Werkzeugkiste von Angreifern erheblich erweitert. Dabei geht es weniger um Science-Fiction-Szenarien als um die Verbesserung und Skalierung bestehender Angriffsmethoden.
KI-generiertes Phishing
Die offensichtlichste Anwendung von KI auf Angreiferseite ist die Erstellung überzeugender Phishing-Nachrichten. Große Sprachmodelle können in Sekunden personalisierte E-Mails generieren, die sprachlich perfekt sind, den Kommunikationsstil eines Unternehmens imitieren und auf den Empfänger zugeschnittene Inhalte enthalten.
Wo früher Phishing-Mails durch holpriges Deutsch, generische Ansprache und offensichtliche Fehler auffielen, produziert KI Texte, die von echten Geschäfts-E-Mails kaum zu unterscheiden sind. Ein Angreifer kann ein Sprachmodell mit öffentlich verfügbaren Informationen über ein Unternehmen füttern (Website, Pressemitteilungen, Social-Media-Profile) und daraus hochpersonalisierte Phishing-Kampagnen für Dutzende von Mitarbeitern erzeugen, jede individuell zugeschnitten.
Das verändert die Ökonomie von Phishing grundlegend. Bisher war Spear Phishing zeitaufwändig und damit teuer. Ein Angreifer musste jede E-Mail manuell recherchieren und formulieren. KI senkt diesen Aufwand auf nahezu null. Was bisher nur für hochwertige Ziele lohnte (Geschäftsführer, Finanzvorstände), wird nun auch für breitere Angriffe auf den Mittelstand wirtschaftlich.
Die praktische Konsequenz: Die bisherigen Erkennungsmerkmale für Phishing (Sprachfehler, generische Ansprache, auffällige Formulierungen) verlieren ihre Zuverlässigkeit. Awareness-Trainings müssen sich anpassen und den Fokus stärker auf kontextuelle Warnsignale legen: Ist die Anfrage plausibel? Kommt sie über den erwarteten Kanal? Erzeugt sie ungewöhnlichen Zeitdruck?
Deepfakes und Stimm-Klonierung
Deepfake-Technologie hat einen Reifegrad erreicht, der sie für praktische Angriffe einsetzbar macht. Video-Deepfakes können das Gesicht einer Person in Echtzeit in einen Videoanruf einblenden. Audio-Deepfakes können die Stimme einer Person mit wenigen Sekunden Trainingsmaterial überzeugend nachahmen.
Die Anwendungsfälle im Angriffskontext sind vielfältig. Ein Deepfake-Videoanruf vom vermeintlichen Geschäftsführer, der eine dringende Überweisung anweist, ähnlich einem klassischen CEO Fraud. Ein Stimm-Klon, der den IT-Support anruft und ein Passwort-Reset für den Account des CEO anfordert. Eine gefälschte Sprachnachricht des Vorgesetzten, die einen Mitarbeiter auffordert, vertrauliche Dateien an eine externe Adresse zu senden.
Im Januar 2024 wurde ein Fall publik, bei dem Mitarbeiter eines multinationalen Unternehmens 25 Millionen US-Dollar überwiesen, nachdem sie in einer Videokonferenz mit mehreren Deepfake-Versionen ihrer Kollegen und Vorgesetzten getäuscht worden waren. Das zeigt, dass Deepfakes nicht mehr nur ein theoretisches Risiko darstellen.
Für den Mittelstand bedeutet das: Verifizierung über einen zweiten Kanal wird bei ungewöhnlichen Anweisungen noch wichtiger als bisher. Wenn der Geschäftsführer per Videoanruf eine Sofortüberweisung anordnet, muss die Verifikation über einen separaten, vorher vereinbarten Kanal erfolgen, beispielsweise ein Rückruf auf die bekannte Mobilnummer.
Automatisierte Schwachstellensuche und Exploit-Generierung
KI-Modelle können Software-Code analysieren und potenzielle Schwachstellen identifizieren. Was für Sicherheitsforscher ein wertvolles Werkzeug ist, steht auch Angreifern zur Verfügung. KI kann den Prozess der Schwachstellenfindung beschleunigen und in manchen Fällen auch Exploit-Code generieren, der eine gefundene Schwachstelle ausnutzt.
Bisher war die Entwicklung von Exploits eine Domäne hochspezialisierter Angreifer. KI senkt auch hier die Einstiegshürde. Ein weniger erfahrener Angreifer kann KI-Tools nutzen, um Schwachstellen in Webanwendungen, APIs oder Konfigurationen zu finden, die er manuell nicht entdeckt hätte.
Gleichzeitig sollte die Bedrohung realistisch eingeordnet werden: Für die meisten Angriffe auf den Mittelstand werden keine Zero-Day-Exploits benötigt. Die Mehrzahl der erfolgreichen Angriffe nutzt bekannte Schwachstellen, die nicht gepatcht wurden, oder Fehlkonfigurationen. KI-gestützte Exploit-Generierung verschärft ein bestehendes Problem, schafft aber kein grundlegend neues.
KI-gestützte Malware und Evasion
Angreifer experimentieren mit KI, um Malware zu entwickeln, die Sicherheitslösungen besser umgeht. KI kann Schadcode so modifizieren, dass er von Signatur-basierten Erkennungssystemen nicht erkannt wird, ohne die Funktionalität zu verändern. Auch die automatisierte Anpassung von Angriffen an die Zielumgebung wird durch KI möglich.
Polymorphe Malware, die ihren Code bei jeder Ausführung leicht verändert, gibt es seit Jahrzehnten. KI hebt dieses Konzept auf eine neue Stufe, weil die Variationen intelligenter und damit schwerer zu erkennen sind. Für die Verteidigungsseite bedeutet das, dass rein signaturbasierte Erkennung zunehmend unzureichend wird und verhaltensbasierte Ansätze an Bedeutung gewinnen.
KI als Werkzeug für Verteidiger
Die gleiche Technologie, die Angriffe verbessert, steht auch auf der Verteidigerseite zur Verfügung und bietet dort erhebliches Potenzial.
Anomalie-Erkennung
KI-basierte Anomalie-Erkennung ist die wahrscheinlich wirkungsvollste Verteidigungsanwendung. Maschinelle Lernmodelle erstellen Baselines für normales Verhalten von Benutzern, Systemen und Netzwerken. Abweichungen von diesen Baselines werden als potenzielle Bedrohungen markiert.
Der Vorteil gegenüber regelbasierten Systemen: KI erkennt auch neuartige Angriffsmuster, die nicht durch vordefinierte Regeln abgedeckt sind. Ein regelbasiertes System löst einen Alarm aus, wenn ein Benutzer mehr als 100 Dateien in einer Stunde herunterlädt. Ein KI-basiertes System erkennt, dass derselbe Benutzer normalerweise 5 Dateien pro Tag herunterlädt und 50 Downloads eine signifikante Abweichung darstellen, auch wenn die absolute Zahl unter dem regelbasierten Schwellenwert liegt.
In der Praxis findet man KI-basierte Anomalie-Erkennung in modernen SIEM-Systemen, Endpoint Detection and Response (EDR) Lösungen, Network Detection and Response (NDR) Tools und Cloud Security Posture Management (CSPM) Plattformen. Viele dieser Lösungen sind als SaaS verfügbar und damit auch für den Mittelstand zugänglich.
Automatisierung der Incident Response
KI kann repetitive Aufgaben in der Incident Response automatisieren: die initiale Triage von Alarmen, die Anreicherung von Alerts mit Kontextinformationen, die automatische Einleitung von Containment-Maßnahmen bei eindeutigen Bedrohungen und die Erstellung von Incident-Reports.
Security Orchestration, Automation and Response (SOAR) Plattformen nutzen KI, um Playbooks automatisiert abzuarbeiten. Wenn ein Alert eine bekannte Phishing-URL enthält, kann das System automatisch die URL blockieren, betroffene Benutzer identifizieren, deren Passwörter zurücksetzen und einen Incident-Report erstellen, alles ohne manuellen Eingriff.
Für Unternehmen mit kleinen IT-Teams, und das betrifft den Großteil des Mittelstands, kann diese Automatisierung den Unterschied zwischen einer zeitnahen und einer verspäteten Reaktion ausmachen. Wenn nur zwei Personen für die IT-Sicherheit zuständig sind, ist die automatische Triage von hunderten Alarmen pro Tag nicht Luxus, sondern Notwendigkeit.
Reduzierung von False Positives
Eines der größten operativen Probleme in der Cybersicherheit sind False Positives: Alarme, die sich als harmlos herausstellen. In typischen Unternehmensumgebungen liegt die False-Positive-Rate bei 40 bis 60 Prozent, was bedeutet, dass die Hälfte aller Alarme Fehlalarme sind. Das führt zu Alarm-Fatigue: Analysten werden desensibilisiert und übersehen echte Bedrohungen im Rauschen der Fehlalarme.
KI kann die False-Positive-Rate erheblich senken, indem sie Alarme im Kontext bewertet. Ein isolierter fehlgeschlagener Login-Versuch ist harmlos. Derselbe fehlgeschlagene Versuch, gefolgt von einem erfolgreichen Login aus einer unbekannten Region, gefolgt von der Einrichtung einer E-Mail-Weiterleitung, ist hochverdächtig. KI erkennt diese Zusammenhänge und priorisiert Alarme entsprechend.
Threat Intelligence und Vorhersage
KI-Modelle können große Mengen an Threat-Intelligence-Daten analysieren und Muster erkennen, die für menschliche Analysten nicht ersichtlich sind. Dazu gehören Korrelationen zwischen verschiedenen Indicators of Compromise (IoCs), die Erkennung neuer Angriffskampagnen in frühen Phasen, die Vorhersage wahrscheinlicher Angriffsziele basierend auf Branche und Profil und die automatische Zuordnung von Angriffen zu bekannten Bedrohungsakteuren.
Für den Mittelstand sind diese Fähigkeiten vor allem dann relevant, wenn sie in bestehende Sicherheitsprodukte integriert sind. Die meisten modernen Endpoint-Protection- und E-Mail-Security-Lösungen nutzen bereits KI-basierte Threat Intelligence, ohne dass du eigene Modelle trainieren müsstest.
Risiken durch die eigene KI-Nutzung
Neben den Auswirkungen von KI auf Angriffe und Verteidigung gibt es eine dritte Dimension, die für den Mittelstand momentan die akuteste ist: die Risiken, die durch die KI-Nutzung im eigenen Unternehmen entstehen.
Datenlecks an KI-Dienste
Das größte unmittelbare Risiko: Mitarbeiter geben vertrauliche Unternehmensdaten in KI-Chatbots und -Tools ein. Quellcode wird in ChatGPT eingefügt, um Fehler zu finden. Vertragstexte werden zur Zusammenfassung hochgeladen. Kundendaten werden für die Analyse eingegeben. Interne Strategiedokumente werden zur Reformulierung verwendet.
Das Problem: Die Daten verlassen das Unternehmen und werden auf den Servern des KI-Anbieters verarbeitet. Je nach Anbieter und Nutzungsbedingungen können sie zum Training zukünftiger Modelle verwendet werden, was bedeutet, dass vertrauliche Informationen potenziell in Antworten an andere Nutzer einfließen könnten.
Samsung machte diese Erfahrung bereits 2023, als Ingenieure proprietären Quellcode in ChatGPT eingaben. Der Vorfall führte zu einem unternehmensweiten Verbot von externen KI-Tools und machte das Problem öffentlich sichtbar. Seitdem haben zahlreiche Unternehmen ähnliche Vorfälle gemeldet.
Für den Mittelstand ist das Risiko besonders groß, weil die Nutzung von KI-Tools oft unkontrolliert stattfindet. Mitarbeiter nutzen kostenlose ChatGPT-Accounts, um ihre Arbeit effizienter zu erledigen, ohne sich über die Datenschutzimplikationen Gedanken zu machen. Ohne eine klare KI-Richtlinie und entsprechende Schulung ist der Abfluss vertraulicher Daten an KI-Dienste praktisch unvermeidlich.
Shadow AI
Shadow AI ist das KI-Pendant zu Shadow IT: Mitarbeiter nutzen KI-Tools, die nicht von der IT-Abteilung genehmigt oder geprüft wurden. Das kann ChatGPT sein, aber auch spezialisierte KI-Tools für Textgenerierung, Bildbearbeitung, Code-Assistenz, Datenanalyse oder Präsentationserstellung.
Die Herausforderung: Anders als bei klassischer Shadow IT, bei der unautorisierte Software installiert wird, lässt sich die Nutzung webbasierter KI-Tools schwer erkennen und noch schwerer unterbinden. Ein Mitarbeiter, der im Browser ChatGPT öffnet und einen Vertragstext eingibt, hinterlässt in den meisten Umgebungen keine Spuren, die eine technische Kontrolle auslösen würde.
Die Lösung liegt nicht primär in Verboten, die in der Praxis schwer durchsetzbar und für die Produktivität kontraproduktiv sind, sondern in der Bereitstellung sicherer Alternativen und klarer Spielregeln.
Halluzinationen und fehlerhafte Outputs
KI-Modelle können plausibel klingende, aber inhaltlich falsche Antworten generieren (Halluzinationen). Wenn Mitarbeiter KI-generierte Inhalte unkritisch übernehmen, kann das zu Fehlern in Verträgen, falschen Informationen in Kundenkommunikation, fehlerhaftem Code in Anwendungen oder falschen Entscheidungsgrundlagen führen.
Im Sicherheitskontext ist das relevant, wenn KI für die Erstellung von Sicherheitsrichtlinien, die Bewertung von Risiken oder die Konfiguration von Systemen eingesetzt wird. Ein KI-generiertes Firewall-Regelwerk, das auf den ersten Blick korrekt aussieht, aber subtile Fehler enthält, kann ein ernsthaftes Sicherheitsrisiko darstellen.
Datenschutzrechtliche Risiken
Die Nutzung von KI-Tools für die Verarbeitung personenbezogener Daten wirft datenschutzrechtliche Fragen auf. Wenn Mitarbeiter Kundendaten, Bewerberdaten oder Mitarbeiterdaten in KI-Tools eingeben, kann das einen Verstoß gegen die DSGVO darstellen, insbesondere wenn der KI-Anbieter außerhalb der EU sitzt und kein angemessenes Datenschutzniveau gewährleistet ist.
Die EU-KI-Verordnung (AI Act) fügt eine weitere regulatorische Dimension hinzu. Je nach Einsatzzweck und Risikokategorie der KI-Anwendung können zusätzliche Anforderungen gelten, die bei der Nutzung berücksichtigt werden müssen.
Die KI-Richtlinie für dein Unternehmen
Angesichts dieser Risiken braucht jedes Unternehmen eine KI-Richtlinie, die den Umgang mit KI-Tools regelt. Diese Richtlinie muss praktikabel sein, denn eine Richtlinie, die KI pauschal verbietet, wird ignoriert. Und sie muss konkret sein, denn abstrakte Formulierungen wie "KI darf nur im Rahmen der geltenden Vorschriften genutzt werden" helfen niemandem.
Kernelemente einer KI-Richtlinie
Klassifizierung von Daten: Definiere klar, welche Datenkategorien in externe KI-Tools eingegeben werden dürfen und welche nicht. Eine einfache Ampel-Systematik funktioniert gut:
- Grün: Öffentlich verfügbare Informationen, allgemeine Fachfragen, anonymisierte Daten.
- Gelb: Interne Informationen ohne Personenbezug oder Geschäftsgeheimnisse. Dürfen in genehmigte, datenschutzkonforme KI-Tools eingegeben werden, nicht aber in kostenlose Consumer-Dienste.
- Rot: Vertrauliche Geschäftsinformationen, personenbezogene Daten, Quellcode, Geschäftsgeheimnisse. Dürfen nur in selbst gehostete oder vertraglich abgesicherte Enterprise-KI-Lösungen eingegeben werden.
Genehmigte Tools: Erstelle eine Liste genehmigter KI-Tools, die hinsichtlich Datenschutz, Sicherheit und Nutzungsbedingungen geprüft wurden. Für die meisten Anwendungsfälle gibt es Enterprise-Varianten mit vertraglicher Datenschutzgarantie (ChatGPT Enterprise, Azure OpenAI, Google Gemini for Workspace etc.).
Nutzungsrichtlinien: Definiere konkrete Dos und Don'ts für die gängigsten Anwendungsfälle: Texterstellung, Code-Assistenz, Datenanalyse, Recherche. Mache klar, dass KI-generierte Ergebnisse immer von einem Menschen geprüft werden müssen, bevor sie verwendet werden.
Verantwortlichkeiten: Die Person, die ein KI-Tool nutzt, bleibt verantwortlich für das Ergebnis. KI-generierter Code muss denselben Review-Prozess durchlaufen wie manuell geschriebener Code. KI-generierte Texte müssen auf Richtigkeit geprüft werden.
Schulungspflicht: Alle Mitarbeiter, die KI-Tools nutzen, müssen geschult werden. Die Schulung umfasst die KI-Richtlinie, Datenschutzaspekte, Umgang mit Halluzinationen und die sichere Nutzung genehmigter Tools.
Implementierung in der Praxis
Die Einführung einer KI-Richtlinie gelingt am besten in drei Schritten:
Schritt 1: Bestandsaufnahme. Finde heraus, welche KI-Tools bereits im Unternehmen genutzt werden (offensichtlich und als Shadow AI). Frage die Fachabteilungen direkt und wertungsfrei, welche Tools sie nutzen und wofür. Diese Bestandsaufnahme ist die Grundlage für eine praxisnahe Richtlinie.
Schritt 2: Richtlinie erstellen und kommunizieren. Erstelle die Richtlinie auf Basis der Bestandsaufnahme und der Datenschutzanforderungen. Kommuniziere sie aktiv und erkläre die Hintergründe. Eine Richtlinie, deren Sinn die Mitarbeiter verstehen, wird eher befolgt als eine, die als willkürliche Einschränkung wahrgenommen wird.
Schritt 3: Sichere Alternativen bereitstellen. Wenn du KI-Tools einschränkst, musst du gleichzeitig genehmigte Alternativen anbieten. Ein Unternehmen, das ChatGPT verbietet, aber keine Alternative bereitstellt, wird feststellen, dass die Nutzung trotzdem stattfindet, nur verdeckt.
KI-Risiken in der Risikobewertung
Die KI-bezogenen Risiken sollten als eigene Kategorie in deine ISMS-Risikobewertung aufgenommen werden. ISMS Lite unterstützt dich dabei, KI-spezifische Risikoszenarien systematisch zu erfassen und mit den passenden Maßnahmen zu verknüpfen. Relevante Risikoszenarien umfassen:
- Vertrauliche Daten gelangen durch Mitarbeiternutzung von KI-Tools an externe Anbieter
- KI-gestütztes Spear Phishing umgeht bestehende Awareness-Maßnahmen
- Deepfake-basierter CEO Fraud führt zu finanziellen Verlusten
- KI-generierte fehlerhafte Konfigurationen oder Richtlinien werden unkritisch übernommen
- Abhängigkeit von KI-gestützten Sicherheitslösungen, die bei Ausfall oder Fehlfunktion Schutzlücken hinterlassen
Für jedes Risiko bewertest du Eintrittswahrscheinlichkeit und Auswirkung und definierst Maßnahmen zur Risikoreduktion. Die meisten der oben genannten Maßnahmen (KI-Richtlinie, Schulung, technische Kontrollen, verifizierte Freigabeprozesse) adressieren diese Risiken direkt.
Was KI nicht kann und warum Grundlagen wichtig bleiben
Bei aller Euphorie über KI-gestützte Sicherheitslösungen ist eine nüchterne Einordnung wichtig: KI ist ein Werkzeug, kein Ersatz für grundlegende Sicherheitsmaßnahmen.
Ein KI-basiertes SIEM hilft nicht, wenn die Logquellen unvollständig sind. Ein KI-gestützter Endpoint-Schutz kompensiert nicht fehlende Patches. Und eine KI-basierte Anomalie-Erkennung nützt wenig, wenn es keine definierten Prozesse gibt, um auf die erkannten Anomalien zu reagieren.
Die Prioritäten bleiben dieselben: Patch-Management, Zugangsmanagement, Netzwerksegmentierung, Backup, Incident Response. Wenn diese Grundlagen nicht stehen, wird auch die fortschrittlichste KI-Lösung das Sicherheitsniveau nicht wesentlich verbessern. Sie kann Lücken in der Erkennung schließen und die Reaktionszeit verkürzen, aber sie kann fehlende Fundamente nicht ersetzen.
Für den Mittelstand bedeutet das: Investiere zuerst in die Grundlagen. Wenn dein Berechtigungsmanagement lückenhaft ist, dein Patch-Management Wochen dauert und dein Incident-Response-Plan in einer Schublade liegt, ist die Anschaffung einer KI-gestützten Security-Plattform nicht der richtige nächste Schritt.
Ausblick: Wohin entwickelt sich die KI in der Cybersicherheit?
Einige Entwicklungen zeichnen sich ab, ohne dass wir in Spekulation verfallen müssen.
KI-gestützte Angriffe werden alltäglich. Was heute noch als fortschrittlich gilt (KI-generiertes Phishing, einfache Deepfakes), wird in ein bis zwei Jahren Standardwerkzeug auch für weniger versierte Angreifer sein. Die Verteidigung muss sich darauf einstellen.
Autonome Sicherheitssysteme nehmen zu. KI-Systeme werden zunehmend in der Lage sein, Bedrohungen nicht nur zu erkennen, sondern auch automatisiert darauf zu reagieren. Das birgt Chancen (schnellere Reaktion) und Risiken (fehlerhafte automatische Reaktionen, die den Geschäftsbetrieb stören).
Regulierung kommt. Die EU-KI-Verordnung ist nur der Anfang. Weitere regulatorische Anforderungen an den sicheren Einsatz von KI werden folgen. Unternehmen, die frühzeitig eine KI-Governance aufbauen, sind besser vorbereitet.
Die Einstiegshürde für Angreifer sinkt weiter. KI demokratisiert nicht nur den Zugang zu produktiven Werkzeugen, sondern auch den Zugang zu offensiven Fähigkeiten. Die Verteidigungsstrategie muss davon ausgehen, dass auch weniger ressourcenstarke Angreifer über fortschrittliche Fähigkeiten verfügen.
Was das für dein ISMS bedeutet: KI ist kein einmaliges Projekt, das du abschließt und abhakst. Die Technologie entwickelt sich schnell, die Bedrohungslage verändert sich kontinuierlich, und deine Maßnahmen müssen Schritt halten. Eine jährliche Überprüfung der KI-bezogenen Risiken und Maßnahmen im Rahmen des Management Reviews ist das Minimum.
Weiterführende Artikel
- Social Engineering im Unternehmen: Methoden, Beispiele und Gegenmaßnahmen
- Security Awareness Programm aufbauen: Was Mitarbeiter wirklich wissen müssen
- Informationssicherheitsrichtlinie erstellen: Von der Struktur bis zur Freigabe
- Risikobewertung im ISMS: Methoden und praktische Durchführung
- Logging und Monitoring: Strategie für den Mittelstand
