Zurück zur vorherigen Seite
Large Language Models in Cybersecurity
Friday, 05. July 2024 - 12:00

Mit dem Aufkommen neuer Cyber-Technologien gehen auch neue Bedrohungen und Auswirkungen einher. Der Cyber-Defence Campus des Bundesamtes für Rüstung armasuisse veröffentlicht zum zweiten Mal eine Open Access Studie zu diesem Thema. Diese beleuchtet die Risiken und Herausforderungen, die durch den Einsatz generativer künstlicher Intelligenz (KI) in der Cybersicherheit entstehen. Die Studie hilft Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und der Wirtschaft bei der Beurteilung von Einsatzrisiken und der Entwicklung von Sicherheitsmassnahmen.

 

 

Die Entwicklung und Verbreitung von künstlicher Intelligenz stellt grosse Herausforderungen für die Sicherheit im Cyberraum dar. Insbesondere maschinelle Lernmodelle zur Generierung von Texten, Bildern oder Videos, besser bekannt unter dem Begriff «generative künstliche Intelligenz (KI)», werden immer leistungsfähiger. Deren Einsatz findet weite Verbreitung in der Bevölkerung. Dabei bietet die generative KI erhebliche Missbrauchsrisiken wie etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Gleichzeitig kann der bewusste Einsatz von KI auch positive Effekte mit sich bringen.

Einfluss von Large Language Models auf Cybersicherheit

Die Studie zeigt auf, dass die Manipulation und der Missbrauch von Lernalgorithmen die Sicherheit der genutzten KI-Anwendungen gefährden kann. Beispielsweise können maschinelle Lernmodelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden sind. Grosse Sprachmodelle (Large Language Models, LLMs) haben das Verständnis von Sprache revolutioniert und werden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Einerseits ermöglichen es LLMs, Cyberangriffe effizienter zu bekämpfen, gleichzeitig können bösartige Akteure LLMs verwenden, um kostengünstig Malware, Phishing-Nachrichten und bösartigen Chatbots zu erstellen.

Stärkung der Cybersicherheit

LLMs werden heute mehrheitlich im Ausland hergestellt. Es ist für staatliche Akteure wie die Schweiz entsprechend wichtig zu verstehen, welche Abhängigkeiten von diesen ausländischen Herstellern bestehen und welche Risiken damit verbunden sind. Diese öffentlich zugängliche (Open Access) Studie bietet wertvolle Einblicke für Fachpersonen und Entscheidungsträger im Bereich der Cybersicherheit. Der CYD Campus und die Fachhochschule Westschweiz (HES-SO) verdeutlichen mit dieser gemeinsam erarbeiteten Studie die Notwendigkeit, sich mit den schnell wachsenden technologischen Entwicklungen auseinanderzusetzen und proaktive Massnahmen zu ergreifen.

Die wichtigsten Erkenntnisse der Studie lauten:

• Generative künstliche Intelligenz und insbesondere grosse Sprachmodelle (LLMs) bringen erhebliche neue Bedrohungen in Bezug auf Cybersicherheit;

• Die Verwendung von generativer künstlicher Intelligenz beim Staat, in der Wirtschaft und in der Gesellschaft soll mit Sorgfalt erfolgen;

• Für eine sichere Entwicklung und einen sicheren Einsatz von generativer künstlicher Intelligenz, müssen Sicherheitskontrollen in der Datenverarbeitungskette eingesetzt werden.

Zum Cyber-Defence Campus

Der Cyber-Defence Campus wurde im Januar 2019 gegründet, um Cyber-Entwicklungen schneller zu antizipieren. Er bildet das Bindeglied zwischen VBS, Industrie und Wissenschaft in der Forschung, Entwicklung und Ausbildung für die Cyber-Verteidigung. Er ist beim Bundesamt für Rüstung armasuisse im VBS angesiedelt.