KI - Fluch oder Segen für die IT-Sicherheit?

schloss zur symbolisierung it-sicherheit und KI

Share the blog with others

KI: Fluch und Segen für Cyber-Security

Künstliche Intelligenz (KI) ist in vielen Lebensbereichen längst weit vorn. Allerdings kann sie gerade in der IT-Sicherheit Fluch und Segen zugleich sein. Auf der einen Seite bietet KI zahlreiche Möglichkeiten, die Effektivität von Sicherheitsmaßnahmen zu steigern, denn mit KI-Tools und Software können IT-Experten ihre Beratungs- und Dienstleistungsangebote verbessern und neue Schutzmöglichkeiten entwickeln. Diese Technologien ermöglichen es, Sicherheitsstrategien präziser und umfassender zu gestalten. Technologien helfen bei der Abwehr von Cyber-Angriffen. Sie helfen bei der Erkennung von Anomalien und dabei, Muster zu erkennen.

Auf der anderen Seite stellt KI zunehmend eine Herausforderung dar, insbesondere weil sie auch Hackern neue Wege eröffnet. Cyber-Kriminelle nutzen KI, um Daten noch effizienter zu sammeln, zu analysieren und daraus wertvolle Erkenntnisse zu ziehen. Die Fähigkeit, große Datenmengen schnell und präzise auszuwerten, macht es Hackern leichter, Schwachstellen zu identifizieren und auszunutzen. Diese Entwicklung zwingt IT-Sicherheitsexperten dazu, ihre Schutzmechanismen ständig zu aktualisieren und anzupassen, um den Angreifern immer einen Schritt voraus zu sein. Schon heute kann KI zum Beispiel täuschend echte Phishing-Mails formulieren oder Codes für Schadsoftware programmieren.

 

Kriminellen immer einen Schritt voraus sein

Die Frage, ob die Technologie nun Fluch oder Segen ist, ist kaum zu beantworten. Um mit den Bedrohungen Schritt zu halten, ist es für die IT-Sicherheit daher unerlässlich, KI genauso intensiv zu nutzen wie die potenziellen Angreifer. Nur durch den Einsatz fortschrittlicher KI-Technologien in der Cyber-Sicherheit können Sicherheitsprofis verstehen, wie Angreifer KI einsetzen und welche Optionen ihnen zur Verfügung stehen. Dieses Verständnis ist entscheidend, um effektive Gegenmaßnahmen entwickeln zu können und Systeme zu automatisieren, die potenziellen Angriffen entgegenwirken. KI zwingt die Branche also dazu, sich stetig weiterzuentwickeln und die neuesten Technologien zu integrieren. Dies erfordert nicht nur technologische Anpassungen, sondern auch ein Umdenken in der Herangehensweise an Sicherheitsstrategien.

 

Auch das Bundesamt für Sicherheit in der Informationstechnik hat das Thema KI und IT-Sicherheit auf dem Schirm. Dort sind Themen wie

 

·       Wie können KI-Systeme angegriffen werden?

·       Welche KI-Systeme können die IT-Sicherheit verbessern?

·       Welche neuen Bedrohungen entstehen durch KI-Methoden?

 

im Mittelpunkt der Forschung. Auch die EU beschäftigt sich schon lange mit KI. Mittlerweile wurde vom EU-Parlament ein Gesetz verabschiedet, das u. a. das Verbot von KI-Systemen mit sehr hohen Risiken umfasst.

 

Cyber-Kriminelle nutzen die gleichen Mechanismen

Dank KI ist es heute möglich, Cyber-Angriffe schneller zu erkennen und abzuwehren. Allerdings nutzen Cyberkriminelle die gleichen Mechanismen, um Schwachstellen zu identifizieren. Algorithmen, die eigentlich dem Schutz von Unternehmen dienen, werden von Hackern genutzt, um Sicherheitsmaßnahmen zu umgehen. Vor allem die Identitäts- und Zugriffsverwaltung vieler IT-Infrastrukturen sind hier gefährdet. Reichen die Sicherheitsmaßnahmen nicht aus, können Angreifer durch Schwachstellen in Systemen Zugang zu sensiblen Daten bekommen.

 

Mithilfe von Technologien wie Machine Learning (ML) und Deep Learning können Hacker Angriffe starten, die nur schwer zu erkennen sind. Sie trainieren mit maschinellem Lernen KI-Modelle, um bestehende Sicherheitsmaßnahmen zu durchbrechen. Hinzu kommen zahlreiche weitere Wege, die Cyber-Kriminelle für sich nutzen.

 

Hierzu gehören auch Deep Fakes und automatisiertes Phishing. Mit generativer KI lassen sich heute Deep Fakes erstellen, die kaum noch als Fake erkennbar sind. Hierbei handelt es sich nicht mehr nur um Bilder, sondern auch um Videos oder Audioinhalte. Auf diesem Weg lassen sich Identitäten fälschen oder Menschen gezielt manipulieren.

 

KI erleichtert Phishing-Betrugsmaschen

Und auch das Phishing hat sich weiterentwickelt. Wir erinnern uns sicher alle noch an die E-Mails, die vor einigen Jahren im Umlauf waren, in denen Hacker täuschend echt beispielsweise die Webseiten und das E-Mail-Layout von Banken nachgebaut haben. So wurden viele Menschen verleitet, ihre Bankdaten auf einer gefakten Webseite einzugeben. Diese landeten in der Folge nicht bei ihrer Bank, sondern in den Händen von Kriminellen.

 

Heute wird u.a. das KI-unterstützte Spear Phising genutzt. Bei diesem Angriff senden Hacker personalisierte Nachrichten gezielt an Personen oder Organisationen. Waren früher Phishing-Attacken an viele Personen gerichtet, schaffen es Hacker heute, sich gezielt an Einzelpersonen zu richten. Sie nutzen Informationen, mit denen E-Mails glaubwürdiger wirken.

 

GPTs für kriminelle Machenschaften einsetzen

Large Language Models (LLM), wie sie unter anderem bei ChatGPT eingesetzt werden, sind Sprachmodelle, die bei der Textgenerierung helfen. Diese können aber auch bösartige Codes erstellen oder bereits existierende Schadsoftware (Malware) weiterentwickeln, sodass sich damit Erkennungssysteme umgehen lassen. Besonders gefährlich hierbei ist, dass sogar Angreifer mit vergleichsweise geringen technischen Kenntnissen Cyber-Angriffe starten können. Die Bedrohung steigt zudem, da die Angriffe schneller und zielgerichteter durchgeführt werden können.

 

Theoretisch lässt sich sogar mit ChatGPT die Grundlage für einen Angriff legen. Eigentlich ist die KI so programmiert, dass sie keine illegalen Antworten gibt, aber mit etwas Geschick bei den Prompts lässt sich dies womöglich umgehen. Im Darknet gibt es einige GPTs, die extra für kriminelle Zwecke trainiert wurden und beispielsweise für Phishing-Mails genutzt werden können.

 

In der IT-Sicherheit werden LLMs u.a. bei sogenannten Incident-Response-Tools zum Erkennen von Cyber-Bedrohungen eingesetzt. Kommt es hier zu Fehlern, so besteht die Gefahr, dass Sicherheitsvorfälle und relevante Informationen übersehen werden. In der Folge fehlen wichtige Daten für eine komplette Bewertung von Bedrohungen, und es entstehen mögliche Sicherheitslücken.

 

KI-Trainingsdaten manipulieren

Immer wieder sehen wir auch Data Poisoning, frei übersetzt „vergiftete Daten“. Dabei werden schädliche oder manipulierte Daten in die Trainingssätze von KI-Modellen eingeschleust, was der Genauigkeit und der Zuverlässigkeit des Modells schadet. Gerade in sicherheitsrelevanten Bereichen stellt dies eine große Gefahr dar. Die KI-Modelle übersehen so möglicherweise Bedrohungen oder neigen dazu, unwichtige Risiken überzubewerten.

 

Generative KI kann sogenannte synthetische Identitäten erstellen, die aus gestohlenen, erfundenen und echten Daten bestehen. Mit diesen Identitäten haben Kriminelle leichtes Spiel bei bestimmten Betrugsmaschen. Sie können bei Identitätsprüfungen täuschen oder unberechtigte Überweisungen durchführen. Hier ist es oft nicht leicht, den Betrug zu durchschauen, denn oft gibt es nur geringe Unterschiede zu echten Profilen.

 

Auch Chatbots, Chat-basierte Interfaces und KI-Agenten bergen Risiken. Diese Techniken können beispielsweise Reservierungen durchführen oder werden auf Webseiten im Kundensupport eingesetzt. Diese Techniken können aber auch auf andere Art missbraucht werden oder sogar Entscheidungen treffen, die letztlich zu einer Sicherheitslücke oder einem Datenschutzproblem führen können.

 

Schutzmaßnahmen mit KI verbessern

KI kann hingegen auch eingesetzt werden, um wirksame, proaktive Schutzmaßnahmen gegen Cyberangriffe zu entwickeln. Es gibt mittlerweile Software, die dabei unterstützt, potenzielle Sicherheitslücken oder Anomalien in Echtzeit zu erkennen und zu schließen. Außerdem kann Künstliche Intelligenz auch dann noch helfen, wenn der Angriff schon erfolgt ist.

 

Ein automatisches Eingreifen ist aber nichts Neues. Bei der Incident Response greifen sogenannte Playbooks ein. Diese Software ist so programmiert, dass sie weiß, welche IT-Sicherheitsmaßnahmen bei welchem Angriff aktiviert werden müssen. KI kann zudem dazu beitragen, diese Software weiter zu verbessern und potenzielle Angriffspunkte zu minimieren. KI-unterstützte Software unterstützt also dabei, Anomalien zu erkennen und verdächtige Aktivitäten frühzeitig anzuzeigen.

 

In Zukunft wird eine starke KI die Arbeitsweise in der Informationssicherheit komplett verändern, da die Technik viele Arbeitsschritte viel präziser ausführen kann als ein Mensch. Das Erkennen von Angriffen gelingt schneller und auch das Eingreifen wird erleichtert. Auch beim Programmieren wird die KI viel Arbeit übernehmen.

 

Dennoch wird der Mensch aber weiterhin gebraucht! Die Aufgabe der Mitarbeiter in der IT wird in Zukunft viel stärker darin liegen, Kontrollmechanismen zu übernehmen. Damit kann Automatisierung dabei helfen, Sicherheitslücken aufzudecken und die Effizienz in der Cyber-Sicherheit zu erhöhen. Ohne menschliche Intelligenz wird der Schutz vor Cyber-Angriffen nicht gelingen. Daher wird im Bereich der Cyber-Sicherheit die effektive Zusammenarbeit von Menschen und Maschine weiter relevant bleiben.

 

Schwachstellen schneller erkennen

KI macht es Cyber-Kriminellen viel leichter, Sicherheitslücken zu umgehen und Betrugsmaschen umzusetzen. Daher ist es umso wichtiger, Schwachstellen zu erkennen und zu schließen. Die Anwendung von KI wird in Zukunft eine unverzichtbare Rolle in der IT-Sicherheit spielen, und die erfolgreiche Integration von KI in Sicherheitskonzepte kann den Schutz vor Cyber-Angriffen deutlich erhöhen. Gleichzeitig ist es jedoch unerlässlich wachsam zu bleiben und die Entwicklungen in der KI-Technologie sowie in der Cyber-Kriminalität kontinuierlich zu beobachten, um den sich ständig wandelnden Bedrohungen gerecht zu werden.

 

Der Einsatz von KI kann sich somit in Zukunft zum Segen für die IT-Sicherheit entwickeln, denn KI bietet bei der Cyber-Abwehr einige Möglichkeiten. Mithilfe von KI können Sie Ihre IT-Systeme noch besser schützen.

 

Wir von SecTepe helfen Ihnen dabei. Sprechen Sie uns jetzt an!

Curious for more? Contact us now!