{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
Österreichische Unternehmen verstärken ihre Bemühungen im Bereich Cybersicherheit und investieren signifikant in IT-Schutzprogramme. Die Ergebnisse unserer Global Digital Trust Insights 2024 zeigen deutlich:
Die Umfrage zeigt, dass 60 % der österreichischen Unternehmen im Jahr 2024 ihre Investitionen in die Cybersicherheit aufstocken werden. Generative KI spielt dabei eine entscheidende Rolle, denn mehr als die Hälfte (53 %) plant den Einsatz von GenAI-Tools für die Cyberabwehr.
Ein weiterer Anstieg von Cyberbedrohungen könnte bevorstehen, da generative KI dabei helfen kann, fortgeschrittene Betrugsversuche im geschäftlichen E-Mail-Verkehr im großen Stil zu schaffen.
CISOs und CIOs sollten auf ein vorherrschendes Stimmungsbild achten: 50 % erwarten, dass GenAI in den nächsten 12 Monaten zu verheerenden Cyberangriffen führen wird. Unternehmen müssen eine solide KI-Governance etablieren und den Risiken vorbeugen, die durch GenAI entstehen könnten.
Mehr als die Hälfte will in den nächsten 12 Monaten GenAI für die Cyberabwehr nutzen.
Knapp die Hälfte verwendet KI bereits zur Erkennung und Eindämmung von Cyberrisiken.
Ein Fünftel sieht bereits Vorteile für ihre Cyber-Programme durch GenAI – nur wenige Monate nach ihrer Einführung.
Quelle: PwC, Global Digital Trust Insights 2024
Für die Verteidigung: Organisationen wurden lange Zeit von der schieren Anzahl und Komplexität menschengeführter Cyberangriffe überwältigt, die kontinuierlich zunehmen. Und GenAI erleichtert es, komplexe Cyberangriffe im großen Maßstab durchzuführen.
Zur Sicherung von Innovationen: Unternehmen, die die vielen potenziellen Vorteile von GenAI schnellstmöglich nutzen möchten, um neue Geschäftsbereiche zu entwickeln und die Produktivität der Mitarbeiter:innen zu steigern, bergen ernsthafte Risiken für Datenschutz, Cybersicherheit, regulatorische Einhaltung, Beziehungen zu Drittanbietern, rechtliche Verpflichtungen und geistiges Eigentum. Um den größtmöglichen Nutzen aus dieser wegweisenden Technologie zu ziehen, sollten Organisationen die Vielzahl von Risiken, die sie in Betracht zieht, ganzheitlich verwalten.
Generative KI wird mit einem bisher unerreichten Tempo unseren Alltag prägen. Unternehmen, die diese Entwicklung vernachlässigen, drohen im Wettbewerb zurückzufallen.
Von der Aufklärung bis zur Aktion kann GenAI für die Verteidigung entlang der gesamten Cyber-Kill-Chain nützlich sein. Hier sind die vielversprechendsten Bereiche.
Erkennung und Analyse von Bedrohungen. GenAI kann von unschätzbarem Wert sein, wenn es darum geht, Schwachstellen proaktiv aufzuspüren, ihr Ausmaß schnell zu bewerten - was gefährdet ist, was bereits kompromittiert wurde und wie hoch der Schaden ist - und bewährte Optionen zur Abwehr und Behebung zu präsentieren. GenAI ist in der Lage, Muster, Anomalien und Indikatoren für eine Gefährdung zu erkennen, die sich traditionellen signaturbasierten Erkennungssystemen entziehen.
Bei einem Cybervorfall können beispielsweise interne Logfiles mit Open Source Daten und Insights aus weiteren Systemen und Quellen synthetisiert werden, um Teams dabei zu helfen, zu verstehen, was passiert ist. GenAI kann so komplexe Bedrohungen in einer leicht verständlichen Sprache darstellen, über Strategien zur Schadensbegrenzung beraten und bei Recherchen und Untersuchungen helfen.
GenAI verspricht auch, die Berichterstattung über Cyberrisiken und -vorfälle zu vereinfachen. Die Anbieter arbeiten bereits an dieser Fähigkeit. Mit Hilfe der Verarbeitung natürlicher Sprache (NLP) kann GenAI forensisch ermittelte technische Daten in prägnante Inhalte umwandeln, die auch für Nichttechniker verständlich sind.
Sie kann bei der Berichterstattung über Vorfälle, Bedrohungsdaten, Risikobewertungen, Audits und der Einhaltung von Vorschriften helfen. Und sie kann ihre Empfehlungen so darstellen, dass jeder sie verstehen kann, und sogar verwirrende Grafiken in einfachen Text übersetzen. GenAI könnte auch geschult werden, um Vorlagen für Vergleiche mit Branchenstandards und führenden Praktiken zu erstellen.
Der Digital Operational Resilience Act der Europäischen Union fordert die rechtzeitige und einheitliche Meldung von Vorfällen, die die Informations- und Kommunikationstechnologien von Finanzunternehmen betreffen. Stellen Sie sich vor, Sie hätten ein Tool, das die Erstellung dieser Berichte wesentlich erleichtert.
Anpassungsfähige Kontrollen. Die Sicherung der Cloud- und Software-Lieferkette erfordert ständige Aktualisierungen der Sicherheitsrichtlinien und -kontrollen - eine gewaltige Aufgabe. Algorithmen des maschinellen Lernens und GenAI-Tools könnten bald Sicherheitsrichtlinien empfehlen, bewerten und entwerfen, die auf das Bedrohungsprofil, die Technologien und die Geschäftsziele eines Unternehmens zugeschnitten sind. Diese Tools könnten prüfen und bestätigen, dass die Richtlinien in der gesamten IT-Umgebung ganzheitlich sind.
In einer Zero-Trust-Umgebung kann GenAI die Risikobewertung und -zuweisung für Endpunkte automatisieren und kontinuierlich durchführen sowie Zugriffsanfragen und -berechtigungen überprüfen. Ein adaptiver Ansatz, der von GenAI-Tools unterstützt wird, kann Unternehmen helfen, besser auf sich entwickelnde Bedrohungen zu reagieren und sicher zu bleiben.
Bisher wurde dem Thema Cybersecurity von Geschäftsführenden und Vorständen oft zu wenig Aufmerksamkeit geschenkt. Die Kombination aus diesem unvorhersehbaren Risiko und der damit verbundenen Haftung macht deutlich, dass dringender Handlungsbedarf besteht. Die steigende Wachsamkeit und verstärkten Investitionen in Resilienzmaßnahmen zeigen dies klar.
Der Einsatz von GenAI für die Cyberabwehr wird - ebenso wie der Einsatz von GenAI im gesamten Unternehmen - von den KI-Vorschriften betroffen sein, insbesondere in Bezug auf Voreingenommenheit, Diskriminierung, Fehlinformationen und unethische Nutzung.
Politische und wirtschaftliche Entscheidungsträger:innen weltweit arbeiten mit Hochdruck daran, KI-Grenzen zu setzen und die Rechenschaftspflicht zu stärken, da sie den dringenden Handlungsbedarf erkennen, die potenziellen, weitreichenden und raschen Auswirkungen von GenAI auf die Gesellschaft anzugehen. Die rechtlichen Rahmenbedingungen entwickeln sich entsprechend rasch weiter.
Vor dem Hintergrund aktueller gesetzlicher Verschärfungen, wie der NIS2-Richtlinie oder dem EU AI Act, erkennen zukunftsorientierte Unternehmen die Bedeutung, den KI-regulatorischen Vorgaben voraus zu sein. Unsere Umfrageteilnehmer:innen sind sich der bevorstehenden Vorschriften bewusst und wissen, dass diese erheblichen Einfluss auf ihr zukünftiges Umsatzwachstum haben könnten.
Von den 37 % der weltweit Befragten, die eine KI-Regulierung erwarten, sind drei Viertel der Meinung, dass die Kosten für die Einhaltung der Vorschriften ebenfalls erheblich sein werden. Etwa zwei Fünftel geben an, dass sie größere Veränderungen in ihrem Unternehmen vornehmen müssen, um die Vorschriften einzuhalten.
Die Begeisterung für KI ist so groß, dass 47 % der von uns in Österreich befragten Führungskräfte angaben, dass sie sich persönlich bei der Einführung von GenAI-Tools am Arbeitsplatz ohne interne Kontrollen für Datenqualität und Governance wohl fühlen würden.
Ohne Governance ist die Einführung von GenAI-Tools jedoch mit Risiken für den Datenschutz und mehr verbunden. Was ist, wenn jemand geschützte Informationen in eine GenAI-Anfrage einfügt? Und ohne Schulung in der korrekten Bewertung von Ergebnissen könnten die Mitarbeiter:innen ihre Empfehlungen auf erfundene Daten oder voreingenommene Aufforderungen stützen.
Wie bei fast jeder Technologie muss auch bei GenAI zunächst die Grundlage für das Vertrauen in den Entwurf, die Funktion und die Ergebnisse geschaffen werden. Diese Grundlage beginnt mit der Governance, wobei die Konzentration auf die Daten-Governance und Sicherheitsbelange besonders wichtig ist. Der Löwenanteil der in Österreich Befragten gibt an, dass sie GenAI auf ethische und verantwortungsvolle Weise nutzen wollen: 60 % stimmen dieser Aussage zu.
GenAI-Tools werden in der Lage sein, Informationen aus verschiedenen Quellen schnell zu synthetisieren, um die menschliche Entscheidungsfindung zu unterstützen. Angesichts der Tatsache, dass 74 % der weltweiten Sicherheitsverletzungen von Menschen begangen werden, sollte die Steuerung von KI für die Verteidigung auch ein menschliches Element beinhalten.
Unternehmen sollten ein verantwortungsvolles KI-Toolkit einführen, um den vertrauenswürdigen, ethischen Einsatz von KI in der Organisation zu sichern. Menschliche Aufsicht und Intervention bleiben auch für die besten Anwendungen von KI unerlässlich.