Künstliche Intelligenz und Cyberangriffe

Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen:
https://doi.org/10.48693/418
Open Access logo originally created by the Public Library of Science (PLoS)
Titel: Künstliche Intelligenz und Cyberangriffe
Autor(en): Saalbach, Klaus
Zusammenfassung: Unter künstlicher Intelligenz (KI) versteht man allgemein die Fähigkeit von Maschinen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern, und ist ein Schlüsselbereich der fortgeschrittenen Computertechnologie. Eine schnell wachsende und weit verbreitete KI-Anwendung ist die generative KI, bei der die KI auf der Grundlage kurzer Anweisungen, den sogenannten Prompts, Inhalte wie neue Bilder, Texte, Töne und Videos erstellen kann, die eine große Schwachstelle darstellen, wenn böswillig Anweisungen gegeben werden. Die schnelle und unkontrollierte Ausbreitung macht die KI zu einem Top-Sicherheitsthema: Am 28. September 2023 kündigte die US-amerikanische National Security Agency (NSA) die Gründung eines KI-Sicherheitszentrums (AI Security Center) an, das alle KI-Sicherheitsaktivitäten bündelt, die US-KI-Systeme schützen und die Heimat gegen KI-bezogene Bedrohungen verteidigen soll. Gleichzeitig kündigte die Direktorin für künstliche Intelligenz der Central Intelligence Agency (CIA) die Entwicklung eines internen KI-basierten Chatbots zur Unterstützung der Geheimdienstanalyse an. Das am 14.03.2023 veröffentlichte KI-Programm ChatGPT-4 (Generative Pretrained Transformer) verwendet 100 Billionen Parameter, wurde mit einem sehr großen Datensatz aus mehreren Quellen trainiert und ist ein multimodales, umfassend angelegtes Modell, das Bilder und Text als Eingaben akzeptiert. In der Praxis wird KI-Ethik nicht durch Algorithmen erreicht, sondern durch Governance. Die Hersteller von KI-Modellen haben Richtlinien, um sicherzustellen, dass eine KI ethisch und verantwortungsbewusst handelt und nicht rechtswidrig, diskriminierend, aggressiv usw. ist. Versuche, diese Beschränkungen zu umgehen, erfolgen durch Prompt Injections (spezielle Anweisungen an die KI, zugangsbeschränkte Inhalte freizugeben), auch Jailbreaks genannt. Die größten Sicherheitsprobleme von ChatGPT sind der einfache Zugriff auf Prompt Injections in Internet-Suchmaschinen, die einfache Durchführung von Angriffen und die Neugier der Benutzer. Typische Angriffe sind Prompt Injections mit direkten Befehlen, Imagination und umgekehrter (reverser) Psychologie. Diese Methoden erleichtern die Erstellung von Malware, polymorphen Viren, Ransomware und anderen bösartigen Anwendungen. Weitere Probleme sind Halluzinationen, die Kontamination von Suchmaschinen und die Verbreitung sensibler Daten. Generative Adversarial Networks (GANs) als Teilmenge der generativen KI können missbraucht werden, um CAPTCHAs zu knacken und gefälschte Inhalte wie Deepfakes, Face Swapping und Voice Cloning zu erstellen. Andererseits ist generative KI auch für die Cyberabwehr für erweiterte Datenanalyse, erweiterte Mustererkennung, Erstellung und Analyse von Threat Repositories (Datenbanken zu Cyberbedrohungen) und Code-Analysen sehr nützlich. Die schnell wachsende Leistungsfähigkeit der KI gibt Anlass zur Sorge, ob dies für den Menschen schädlich sein könnte. In diesem Beitrag werden kurz das Potenzial von KI für die Erstellung und Abwehr von Cyberangriffen, die Risiken generativer KI und die Notwendigkeit einer Regulierung zur Kontrolle der weiteren Entwicklung dargestellt.
URL: https://doi.org/10.48693/418
https://osnadocs.ub.uni-osnabrueck.de/handle/ds-202310239930
Schlagworte: Künstliche Intelligenz; Cyberangriffe; Cybersicherheit; ChatGPT; Generative KI
Erscheinungsdatum: 23-Okt-2023
Lizenzbezeichnung: Attribution 3.0 Germany
URL der Lizenz: http://creativecommons.org/licenses/by/3.0/de/
Publikationstyp: Arbeitspapier [WorkingPaper]
Enthalten in den Sammlungen:FB01 - Hochschulschriften

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
KI_und_Cyberangriffe_2023_Saalbach.pdf456,54 kBAdobe PDF
KI_und_Cyberangriffe_2023_Saalbach.pdf
Miniaturbild
Öffnen/Anzeigen


Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons Creative Commons