Prof. Claudia Eckert

Cybersecurity neu denken

Mit künstlicher Intelligenz lassen sich digitale Gefahren früher erkennen und effektiver abwehren. Wissenschaftler:innen und Entwickler:innen arbeiten daran, Chancen zu nutzen und Risiken zu minimieren – zum Wohle von Unternehmen und Verbraucher:innen

4 Minuten Lesezeit

Ein gutes Auge für kleine Details kann große wirtschaftliche Vorteile bringen. Das gilt nicht nur für die stete Verbesserung von Produkten und Dienstleistungen, sondern auch für die Abwehr von Cyberangriffen. Denn wenn ein Unternehmen frühzeitig minimale Auffälligkeiten wie ungewöhnliches Nutzerverhalten oder eigenartige Datenpakete registriert, kann es beträchtliche Schäden abwenden. Anomalieerkennung nennen Cybersecurity-Fachleute diese Sicherheitsstrategie. Künstliche Intelligenz ist darin stark, weil sie verdächtige Muster in großen Datenmengen besonders gut und schnell erkennt. Der potenzielle Nutzen ist immens: Unternehmen, die ihre IT mithilfe von KI schützen, erleiden rund 65 Prozent weniger finanzielle Schäden als Unternehmen, die das nicht tun. Das geht aus einer Studie von IBM aus dem Jahr 2022 hervor (Cost of Data Breach Report 2022).

Weiterbildungsprogramme des Fraunhofer AISEC

Aufklärungsarbeit: Im Lernlabor Cybersicherheit bietet Fraunhofer AISEC verschiedene Weiterbildungsprogramme an.

»KI bietet viele Chancen, um digitale Risiken zu minimieren, kann aber auch als Angriffswerkzeug genutzt werden und stellt damit auch ein Risiko für die IT-Sicherheit dar«, sagt auch Prof. Claudia Eckert. Sie leitet den Lehrstuhl für Sicherheit in der Informatik an der TU München sowie das Fraunhofer‑Institut für Angewandte und Integrierte Sicherheit, kurz AISEC.

So forscht Eckert zu den Chancen und auch Risiken von KI in der Cybersicherheit: Wie KI einerseits von Hackern für immer intelligentere Cyberangriffe genutzt oder aber auch selbst Zielscheibe von Angriffen wird und andererseits wichtige, innovative Beiträge zur Verbesserung der Cybersicherheit leisten kann. Neben der Anomalieerkennung sieht die Wissenschaftlerin künftig beispielsweise einen großen Mehrwert in KI‑gestützten Verfahren, die automatisiert Schwachstellen in Programmcodes entdecken. Auch Datenschutzverletzungen lassen sich durch KI automatisiert erkennen und beheben. »Damit können Unternehmen beispielsweise auch gegenüber ihren Kundinnen und Kunden nachweisen, dass alle Standards und Auflagen eingehalten werden«, erklärt Eckert.

Google Safety Engineering Center (GSEC) in München

Starke Partnerschaft: In gemeinsamen Projekten befassen sich das Google Safety Engineering Center (GSEC) in München ...

Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching

... sowie das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching mit Verfahren, die einen vertrauenswürdigen Einsatz von KI gewährleisten.

Schutz vor Angriffen

Google nutzt die Potenziale, die KI im Kampf gegen Cyber­gefahren bietet, bereits auf vielfältige Weise. Im E-Mail-Dienst Gmail und im Google-Browser Chrome etwa sorgt die Kombination aus menschlicher und künstlicher Intelligenz dafür, dass Schadsoftware oder Phishing-Versuche mit hoher Zuverlässigkeit erkannt und geblockt werden. Die Cybersecurity-Firma Mandiant, die seit 2022 zu Google gehört, setzt KI ein, um Unternehmen automatisiert vor Cybergefahren zu warnen und sie abzuwehren. Auch das auf Cybersicherheit spezialisierte Team des geplanten Google Safety Engineering Center in Málaga sowie die KI-Entwicklerinnen und -Entwickler von Google DeepMind befassen sich mit neuen Wegen, Unternehmen mithilfe von KI besser vor Angriffen in der digitalen Welt zu schützen.

Doch auch Risiken, die mit dem Einsatz von KI einhergehen, wollen sowohl Prof. Eckert als auch Google reduzieren. Techniken, um KI-Verfahren robuster gegen Angriffe zu machen, aber auch Sicherheitsarchitekturen, die die verarbeiteten Daten und Ver­fahren vor Missbrauch schützen, sind essenziell, damit KI-Technologien in Zukunft vertrauenswürdig eingesetzt werden und keine neuen Angriffsflächen bieten. Ein wichtiges Thema dabei ist der Datenschutz: »Wenn eine KI mit großen Datensätzen und -modellen trainiert wird, sollten später keine Rückschlüsse auf einzelne Personen möglich sein, von denen die Daten stammen. Man denke nur an medizinische Szenarien, in denen keine Rückschlüsse auf die hochsensiblen Daten der Einzelpersonen möglich sein dürfen«, sagt Eckert. Das Fraunhofer AISEC arbeitet bereits seit einiger Zeit gemeinsam mit Spezialistinnen und Spezialisten des Münchner Google Safety Engineering Center (GSEC) an Verfahren, mit denen sich Datensätze mit mathematischer Zuverlässigkeit anonymisieren lassen, um damit die Privatsphäre von Individuen zu schützen.

Prof. Claudia Eckert

Prof. Claudia Eckert forscht zu den Chancen und Risiken von künstlicher Intelligenz – mit Blick auf Cybersecurity und Datenschutz.

Stark dank Partnerschaften

Aktuell befassen sich das Fraunhofer AISEC und das GSEC gemeinsam damit, solche und andere Schutzmechanismen zu überprüfen, um den vertrauenswürdigen Einsatz von KI zu gewährleisten. In einem gemeinsamen Forschungsprojekt entwickeln sie Testverfahren, die gezielt nach Privatsphärelecks in Machine-Learning-Modellen suchen. Später einmal könnten Anbieter von KI-Lösungen oder Kontrollinstanzen mit solchen Tests prüfen, ob KI-Lösungen die Privatsphäre wahren, denn die dafür notwendigen Softwareprogramme werden im frei zugänglichen Open-Source-Format veröffentlicht.

Gemeinsame Projekte wie diese und der Austausch mit Partnern aus Wirtschaft und Wissenschaft sind für Google elementar, wenn es um KI und Cybersecurity oder Datenschutz geht. So auch beim Secure AI Framework (SAIF), einem konzeptionellen Rahmen für sichere KI-Systeme, der im Juni 2023 vorgestellt wurde. SAIF basiert auf Googles offenem und kooperativem Ansatz zu Cybersecurity und zielt darauf ab, spezifische Risiken zu mindern, denen KI-Systeme ausgesetzt sind. Dazu gehören etwa der Diebstahl von KI-Modellen oder die Manipulation von Trainingsdaten. Google kooperiert dabei beispielsweise mit der kollaborativen Entwicklungsplattform GitLab und dem Datensicherheitsunternehmen Cohesity. Die in SAIF enthaltenen Standards und Tools stehen Unternehmen und Behörden zur Verfügung, damit sie den Schutz ihrer KI-Systeme effizient steigern können.

»Cybersecurity ist in der mobilen, hybriden Welt von heute eine Gemeinschaftsaufgabe«, sagt auch Dr. Wieland Holfelder, der den Google‑Standort München leitet. Anfang 2023 wurde dort die Partnerschaft mit der TU München erweitert: Mit einer finanziellen Förderung von mehr als einer Million Euro durch Google finanziert die Universität ein neues TUM Innovation Network Cybersecurity, in dem unter der Leitung von Prof. Eckert akademische Teams aus unterschiedlichen Fachbereichen zu Zukunftsfragen rund um Cybersecurity forschen.

Fotos: Sima Dehgani (4), LÊMRICH (1)

Ähnliche Artikel