Cybersecurity neu denken
Mit künstlicher Intelligenz lassen sich digitale Gefahren früher erkennen und effektiver abwehren. Wissenschaftler:innen und Entwickler:innen arbeiten daran, Chancen zu nutzen und Risiken zu minimieren – zum Wohle von Unternehmen und Verbraucher:innen
Ein gutes Auge für kleine Details kann große wirtschaftliche Vorteile bringen. Das gilt nicht nur für die stete Verbesserung von Produkten und Dienstleistungen, sondern auch für die Abwehr von Cyberangriffen. Denn wenn ein Unternehmen frühzeitig minimale Auffälligkeiten wie ungewöhnliches Nutzerverhalten oder eigenartige Datenpakete registriert, kann es beträchtliche Schäden abwenden. Anomalieerkennung nennen Cybersecurity-Fachleute diese Sicherheitsstrategie. Künstliche Intelligenz ist darin stark, weil sie verdächtige Muster in großen Datenmengen besonders gut und schnell erkennt. Der potenzielle Nutzen ist immens: Unternehmen, die ihre IT mithilfe von KI schützen, erleiden rund 65 Prozent weniger finanzielle Schäden als Unternehmen, die das nicht tun. Das geht aus einer Studie von IBM aus dem Jahr 2022 hervor (Cost of Data Breach Report 2022).
»KI bietet viele Chancen, um digitale Risiken zu minimieren, kann aber auch als Angriffswerkzeug genutzt werden und stellt damit auch ein Risiko für die IT-Sicherheit dar«, sagt auch Prof. Claudia Eckert. Sie leitet den Lehrstuhl für Sicherheit in der Informatik an der TU München sowie das Fraunhofer‑Institut für Angewandte und Integrierte Sicherheit, kurz AISEC.
So forscht Eckert zu den Chancen und auch Risiken von KI in der Cybersicherheit: Wie KI einerseits von Hackern für immer intelligentere Cyberangriffe genutzt oder aber auch selbst Zielscheibe von Angriffen wird und andererseits wichtige, innovative Beiträge zur Verbesserung der Cybersicherheit leisten kann. Neben der Anomalieerkennung sieht die Wissenschaftlerin künftig beispielsweise einen großen Mehrwert in KI‑gestützten Verfahren, die automatisiert Schwachstellen in Programmcodes entdecken. Auch Datenschutzverletzungen lassen sich durch KI automatisiert erkennen und beheben. »Damit können Unternehmen beispielsweise auch gegenüber ihren Kundinnen und Kunden nachweisen, dass alle Standards und Auflagen eingehalten werden«, erklärt Eckert.
Schutz vor Angriffen
Google nutzt die Potenziale, die KI im Kampf gegen Cybergefahren bietet, bereits auf vielfältige Weise. Im E-Mail-Dienst Gmail und im Google-Browser Chrome etwa sorgt die Kombination aus menschlicher und künstlicher Intelligenz dafür, dass Schadsoftware oder Phishing-Versuche mit hoher Zuverlässigkeit erkannt und geblockt werden. Die Cybersecurity-Firma Mandiant, die seit 2022 zu Google gehört, setzt KI ein, um Unternehmen automatisiert vor Cybergefahren zu warnen und sie abzuwehren. Auch das auf Cybersicherheit spezialisierte Team des 2023 eröffneten Google Safety Engineering Center in Málaga sowie die KI-Entwicklerinnen und -Entwickler von Google DeepMind befassen sich mit neuen Wegen, Unternehmen mithilfe von KI besser vor Angriffen in der digitalen Welt zu schützen.
Doch auch Risiken, die mit dem Einsatz von KI einhergehen, wollen sowohl Prof. Eckert als auch Google reduzieren. Techniken, um KI-Verfahren robuster gegen Angriffe zu machen, aber auch Sicherheitsarchitekturen, die die verarbeiteten Daten und Verfahren vor Missbrauch schützen, sind essenziell, damit KI-Technologien in Zukunft vertrauenswürdig eingesetzt werden und keine neuen Angriffsflächen bieten. Ein wichtiges Thema dabei ist der Datenschutz: »Wenn eine KI mit großen Datensätzen und -modellen trainiert wird, sollten später keine Rückschlüsse auf einzelne Personen möglich sein, von denen die Daten stammen. Man denke nur an medizinische Szenarien, in denen keine Rückschlüsse auf die hochsensiblen Daten der Einzelpersonen möglich sein dürfen«, sagt Eckert. Das Fraunhofer AISEC arbeitet bereits seit einiger Zeit gemeinsam mit Spezialistinnen und Spezialisten des Münchner Google Safety Engineering Center (GSEC) an Verfahren, mit denen sich Datensätze mit mathematischer Zuverlässigkeit anonymisieren lassen, um damit die Privatsphäre von Individuen zu schützen.
Stark dank Partnerschaften
Aktuell befassen sich das Fraunhofer AISEC und das GSEC gemeinsam damit, solche und andere Schutzmechanismen zu überprüfen, um den vertrauenswürdigen Einsatz von KI zu gewährleisten. In einem gemeinsamen Forschungsprojekt entwickeln sie Testverfahren, die gezielt nach Privatsphärelecks in Machine-Learning-Modellen suchen. Später einmal könnten Anbieter von KI-Lösungen oder Kontrollinstanzen mit solchen Tests prüfen, ob KI-Lösungen die Privatsphäre wahren, denn die dafür notwendigen Softwareprogramme werden im frei zugänglichen Open-Source-Format veröffentlicht.
Gemeinsame Projekte wie diese und der Austausch mit Partnern aus Wirtschaft und Wissenschaft sind für Google elementar, wenn es um KI und Cybersecurity oder Datenschutz geht. So auch beim Secure AI Framework (SAIF), einem konzeptionellen Rahmen für sichere KI-Systeme, der im Juni 2023 vorgestellt wurde. SAIF basiert auf Googles offenem und kooperativem Ansatz zu Cybersecurity und zielt darauf ab, spezifische Risiken zu mindern, denen KI-Systeme ausgesetzt sind. Dazu gehören etwa der Diebstahl von KI-Modellen oder die Manipulation von Trainingsdaten. Google kooperiert dabei beispielsweise mit der kollaborativen Entwicklungsplattform GitLab und dem Datensicherheitsunternehmen Cohesity. Die in SAIF enthaltenen Standards und Tools stehen Unternehmen und Behörden zur Verfügung, damit sie den Schutz ihrer KI-Systeme effizient steigern können.
»Cybersecurity ist in der mobilen, hybriden Welt von heute eine Gemeinschaftsaufgabe«, sagt auch Dr. Wieland Holfelder, Leiter des Google-Standorts München. Anfang 2018 schloss das Unternehmen mit der TU München eine langfristige Partnerschaft. Mit Fördergeldern von Google finanziert die TUM u. a. Forschung an der Schnittstelle von Cybersecurity und KI. Unter Leitung von Prof. Eckert und weiteren Professor:innen erforschen Teams beispielsweise, nach welchen Mustern Cyberangriffe auf Sprachmodelle erfolgen. Expert:innen von Google beraten sie dabei.
Fotos: Sima Dehgani (4), LÊMRICH (1)