Blogartikel ChatGPT Fraunhofer AISEC Claudia Eckert

ChatGPT – neues Lieblingstool für Hacker?

Der KI-Software ChatGPT wird einiges zugetraut: Zeitungsartikel soll sie schreiben, Abschlussarbeiten verfassen – oder Malware programmieren. Entwickelt sich mit ChatGPT ein neues Tool, mit dem Hacker und Cyberkriminelle noch einfacher Schadsoftware erstellen können? Institutsleiterin Prof. Dr. Claudia Eckert und KI-Experte Dr. Nicolas Müller ordnen das Bedrohungspotential durch ChatGPT für die digitale Sicherheit ein.

Sicherheitsexpert:innen haben bereits gezeigt, dass mit ChatGPT Malware erzeugt werden kann, auch für Social Engineering kann der Bot genutzt werden. Wird sich ChatGPT zu einem neuen Lieblingswerkzeug von Hacker:innen mit wenig technischem Wissen entwickeln?

Da jeder ChatGPT benutzen kann, um mit dieser KI-basierten Software Texte oder einfache Programme automatisiert zu generieren, werden es auch Hacker:innen tun, um z. B. Schad-Code zu erzeugen. Derzeit ist noch nicht abzuschätzen, wie gut diese erzeugten Programme sein werden, aber einfache Varianten beispielsweise zur automatisierten Erzeugung von Phishing-E-Mails, aber auch von Code, mit dem ein Ransomware-Angriff durchgeführt werden kann, wurden bereits nachgewiesen. Klar ist, dass es schon seit langer Zeit einfach zu nutzende Möglichkeiten gibt, so dass auch Hacker:innen ohne Vorkenntnisse Angriffe durchführen können. Diese basieren jedoch nicht auf KI, sondern sind beispielsweise online verfügbare Sammlungen von ausführbaren Angriffsprogrammen, sogenannte Exploits, die bekannte Schwachstellen ausnutzen. Mit ChatGPT steht nun zusätzlich ein einfach zu bedienendes Werkzeug zur Verfügung, so dass eigener Schadcode generiert und schnell in Umlauf gebracht werden kann. Aus Sicht des Fraunhofer AISEC ist ChatGPT eine ernstzunehmende Bedrohung für die Cybersicherheit. Wir gehen davon aus, dass die Wissensbasis der nachfolgenden Softwareversionen erheblich erweitert und sich auch die Qualität der Antworten verbessern wird, da mit der zugrundeliegenden Technik des Re-Enforcement Learnings und unter Nutzung von menschlichem Feedback eine solche Weiterentwicklung absehbar ist. Das Schließen von Sicherheitslücken, die frühzeitige Beseitigung von Schwachstellen ist deshalb das A und O, um diese Angriffe abzuwehren.

Ist ChatGPT nur interessant für „Script Kiddies“ oder auch für versiertere Cyberkriminelle?

Hacker:innen müssen für erfolgreiche Angriffe Kompetenzen aus unterschiedlichsten Bereichen besitzen. ChatGPT kann daher aus meiner Sicht durchaus auch bereits heute für IT-Expert:innen interessant sein. Die Dialog-Kommunikationsform und die Fähigkeit des Chatbots, Erklärungen zu liefern, Code-Schnipsel zu erzeugen oder Kommandos zu beschreiben, die für erfragte Aufgaben genutzt werden können, wie die korrekte Parametrisierung von Analyse-Tools, können auch für Experten:innen eine sehr hilfreiche Unterstützung liefern. Die Antworten von ChatGPT können schneller das gewünschte Ergebnis liefern als eine klassische Google-Abfrage, die ja beispielsweise keine auf die Anfrage zugeschnittenen Code-Teile generiert. Für Experten:innen könnte ChatGPT daher einen Beitrag zum schnelleren Wissensausbau leisten, unter der Annahme, dass die Experten:innen in der Lage sind, die Antworten des Chatbots schnell auf Plausibilität und Korrektheit zu überprüfen.

Gibt es nicht ohnehin schon viele sehr einfache Wege, sich Schadcode zu besorgen, z. B. einfach per Klick im Darknet („Malware as a Service“)? Ist ChatGPT nur eine weitere Option oder wie unterscheidet sich der Bot von den bereits bestehenden Möglichkeiten für Hacker:innen?

Wie oben bereits ausgeführt, ist ChatGPT ein weiteres Werkzeug im Blumenstrauß bestehender Hacker:innen-Tools. Aus meiner Sicht könnte ChatGPT in Zukunft teilweise den Part eines virtuell Beratenden übernehmen, der zu unterschiedlichsten Fragestellungen konsultiert werden kann, um Angriffe von Hacker:innen vorzubereiten. Weitaus gravierender ist aus unserer Sicht jedoch das Schadenspotential, das eine solche Software auf lange Sicht haben kann, manche sprechen bereits von einer Game Changer Software für die Cybersicherheit. Auch wenn ChatGPT gemäß interner Regelwerke verweigert, Angriffscode zu generieren, wenn konkret danach gefragt wird, so kann man dies natürlich durch geschickte Formulierung umgehen. ChatGPT hat das Potential, die Welt der Cyberattacken für eine noch breitere Nutzerschaft zugänglich zu machen, eine Vielzahl zugeschnittener Angriffe dediziert erzeugen zu lassen und dazu auch noch die nicht versierten Hacker:innen darin zu beraten, dies dann auch erfolgreich durchzuführen.

Müssen wir uns darauf einstellen, dass in naher Zukunft Cyberangriffe – von der Erstellung der Malware bis zu ihrer Verbreitung – durch KI gesteuert werden? Passiert das heute schon?

Ja, wir gehen durchaus davon aus, dass einfache Angriffswellen, wie Phishing-Kampagnen KI-basiert erzeugt und durchgeführt werden können. Dazu lassen sich z. B. KI-basiert Phishing-E-Mails generieren, die beispielsweise einen Link enthalten, hinter dem sich KI-basierter Ransomware-Code verbirgt. Die Mails können automatisch an ausgewählte Adressatenkreise verteilt werden. Das sind Angriffe, die zur großen Klasse der Social-Engineering-Angriffe gehören, die KI-basiert in Zukunft noch wirkungsvoller durchgeführt werden können als dies bislang schon geschieht. Die KI-Software generiert echt und überzeugend wirkende Texte, so dass die Opfer darauf hereinfallen und z. B. sensitive Informationen preisgeben. Dennoch ist zu beachten, dass die dahinterliegende Technologie (Language Model) zwar Sätze außerordentlich gut vervollständigen, jedoch aber nicht – wie der Mensch – komplexe Zusammenhänge und Vorwissen aus verschiedensten Bereichen zusammenbringen und miteinander in Bezug setzen kann. Antworten auf Fragen klingen bei ChatGPT daher oft plausibel, basieren aber letztlich nicht auf menschlichem Verstehen, sondern auf einer statistischen Verteilung über Wort-Zusammenhänge.

Gibt es auch positive Aspekte für die Sicherheitsbranche, die mit ChatGPT einhergehen? Können Sicherheitsexpert:innen den Bot auch für ihre Arbeit nutzen?

Auch Sicherheitsexpert:innen können von ChatGPT profitieren, z. B. um Schwachstellen in Software  aufzudecken. Aber auch für Software-Entwickler:innen kann ChatGPT eine Unterstützung sein. So könnten Code-Bestandteile automatisiert durch ChatGPT analysiert und Hinweise von ChatGPT für die Verbesserung der Code-Qualität im Entwicklungszyklus berücksichtigt werden. Damit existieren weniger potentielle Möglichkeiten, Software anzugreifen. ChatGPT könnte zudem einen Beitrag in der Qualifizierung von Mitarbeitenden leisten. Jedoch muss bei allen Anwendungsgebieten stets bedacht werden, dass ChatGPT häufig falsche oder sogar frei erfundene Antworten liefert und auch in Zukunft liefern wird. Es gilt somit sowohl die Risiken als auch die Chancen von ChatGPT im Blick zu behalten, aber sich auch deren inhärenten Grenzen bewusst zu sein.

Wie wird sich die Technologie, wie wird sich generative KI, generell weiterentwickeln?

Wir beobachten eine zunehmend rasante Entwicklung im Bereich generativer KI mit täglich neuen Forschungsergebnissen und Meldungen. Die in diesem Interview getroffenen Aussagen und Prognosen müssen im Lichte dieser Entwicklung betrachtet werden. Sie sind daher als Momentaufnahme einer Zeit zu verstehen, in der viele Chancen und Risiken dieser Technologie lediglich erahnt werden können.

Beispielsweise wurden in einem im März 2023 veröffentlichten Beitrag von Microsoft Research erste Anzeichen von Artificial General Intelligence (AGI) verkündet [1], also einem Programm mit Fähigkeiten zum Verstehen und Erlernen komplexer intellektueller Aufgaben. Auch sehen wir bei vielen Technologieanbietern eine schnelle Adaption generativer KI. Dies wird die rasante Dynamik in Entwicklung und Forschung und in den vielfältigen Anwendungen zusätzlich beschleunigen und neue, noch ungeahnte Märkte eröffnen. Eines steht jedoch fest: Ebenso wie generative KI einen großen Einfluss auf alle Bereiche unserer Gesellschaft haben wird, so wird sie auch die Entwicklung zukünftiger Sicherheitstechnologien entscheidend prägen. Mit hoher Zuverlässigkeit lässt sich abschließend nur dieses prognostizieren: Das Fraunhofer AISEC wird KI-gestützte Sicherheit und sichere KI weiterhin genauestens beobachten und aktiv mitgestalten.

Dieses Interview ist im Februar 2023 auf der Website von Bayern Innovativ erschienen. Aufgrund der rasanten Entwicklung der KI-Technologie haben wir es im April 2023 um die unterste Frage ergänzt. Hier der Link zur ursprünglichen Veröffentlichung: https://www.bayern-innovativ.de/de/netzwerke-und-thinknet/uebersicht-digitalisierung/cybersecurity/seite/chatgpt-neues-lieblingstool-fuer-hacker

[1] https://arxiv.org/abs/2303.12712

Autoren
Prof. Dr. Claudia Eckert
Claudia Eckert

Prof. Dr. Claudia Eckert ist geschäftsführende Leiterin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC in München und Professorin der Technischen Universität München, wo sie den Lehrstuhl für Sicherheit in der Informatik in der Fakultät für Informatik inne hat. Als Mitglied zahlreicher nationaler und internationaler industrieller Beiräte und wissenschaftlicher Gremien berät sie Unternehmen, Wirtschaftsverbände und die öffentliche Hand in allen Fragen der IT-Sicherheit.

muller_nicolas_0185_rund
Nicolas Müller

Dr. Nicolas Müller hat an der Universität Freiburg Mathematik, Informatik und Theologie auf Staatsexamen studiert und 2017 mit Auszeichnung abgeschlossen. Er ist seit 2017 wissenschaftlicher Mitarbeiter am Fraunhofer AISEC in der Abteilung ‘Cognitive Security Technologies’. Seine Forschung konzentriert sich auf die Verlässlichkeit von KI-Modellen, ML-Shortcuts und Audio-Deepfakes.

Most Popular

Keinen Beitrag verpassen?

Bitte geben Sie Ihre E-Mail-Adresse ein, um keinen Blog-Beitrag zu verpassen.
Bitte füllen Sie das Pflichtfeld aus.
Bitte füllen Sie das Pflichtfeld aus.
Bitte füllen Sie das Pflichtfeld aus.

* Pflichtfeld

* Pflichtfeld

Mit dem Ausfüllen des Formulars akzeptieren Sie unsere Datenschutzerklärung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Artikel

Wie man passende Datensätze baut, um erfolgreich Audio-Deepfakes zu erkennen

Deepfakes stellen eine erhebliche Bedrohung für die Demokratie sowie für Privatpersonen und Unternehmen dar. Sie ermöglichen unter anderem Desinformation, den Diebstahl geistigen Eigentums oder Trickbetrug. Robuste KI-Erkennungssysteme bieten eine Lösung, doch ihre Effektivität hängt entscheidend von der Qualität der zugrunde liegenden Daten ab: »Garbage in, garbage out«. Aber wie erstellt man einen Datensatz, der für die Erkennung von Deepfakes – die sich ständig weiterentwickeln – gut geeignet ist und eine robuste Detektion erlaubt? Was macht hochwertige Trainingsdaten aus?

Weiterlesen »

Parsing von X.509-Zertifikaten: Wie sicher sind TLS-Bibliotheken?

Digitale Zertifikate wie X.509 sind für die sichere Internetkommunikation unerlässlich, da sie Authentifizierung und Datenintegrität ermöglichen. Unterschiede in der Art und Weise, wie sie von verschiedenen TLS-Bibliotheken geparst werden, können jedoch zu Sicherheitsrisiken führen. In einer aktuellen Studie des Fraunhofer AISEC wurden sechs weit verbreitete X.509-Parser mit realen Zertifikaten analysiert. Die Ergebnisse zeigen Unstimmigkeiten auf, die sich auf sicherheitskritische Anwendungen auswirken könnten. In diesem Artikel fassen wir die wichtigsten Ergebnisse zusammen und erklären, warum Unternehmen ihre kryptografischen Bibliotheken genau unter die Lupe nehmen sollten.

Weiterlesen »

Impeccable Keccak: Absicherung kryptografischer Implementierungen mit fehlerresisitenten Schaltkreisen

Bedrohungen für die Cybersicherheit entwickeln sich stets weiter und kryptografische Implementierungen sind zunehmend von Angriffen durch Fehlerinjektionen gefährdet. Das Fraunhofer AISEC präsentiert mit Impeccable Keccak einen neuen Ansatz zur Sicherung von SLH-DSA (SPHINCS+), einem digitalen Signaturverfahren der Post-Quanten-Kryptografie, das von der NIST 2024 standardisiert wurde. Durch den Einsatz fehlerresistenter Schaltkreise und die Gewährleistung aktiver Sicherheit stellt dies einen neuen Ansatz für fehlerresistente Kryptografie dar.

Weiterlesen »