banner
Nachrichtenzentrum
Sofortige Lieferung

Generative KI: Was jeder CISO wissen muss

Jul 02, 2023

Risikomanagement

Neue Technologien verändern ständig die Sicherheitslandschaft, aber nur wenige werden wahrscheinlich über die transformative Kraft generativer KI verfügen. Da sich Plattformen wie ChatGPT immer weiter durchsetzen, müssen CISOs die beispiellosen Cybersicherheitsrisiken verstehen, die sie mit sich bringen – und was sie dagegen tun können.

Von: Greg Young 01. Juni 2023 Lesezeit: (Wörter)

Im Folio speichern

Der „disruptive“ Teil disruptiver Innovationen ergibt sich oft aus den unerwarteten Konsequenzen, die sie mit sich bringen. Die Druckmaschine erleichterte das Kopieren von Texten, verwob jedoch gleichzeitig das soziale, politische, wirtschaftliche und religiöse Gefüge Europas neu. Durch die Revolutionierung der menschlichen Mobilität veränderte das Auto das Gemeindedesign und brachte Vororte und eine Fahrkultur des 20. Jahrhunderts hervor. In jüngerer Zeit hat das World Wide Web die Art und Weise, wie Menschen miteinander in Kontakt treten und auf Informationen zugreifen, völlig verändert und dabei Fragen der Privatsphäre, geopolitischer Grenzen und der freien Meinungsäußerung neu formuliert.

Generative KI scheint genauso transformativ zu sein wie all diese, da große Sprachmodelle wie ChatGPT und Google Bard sowie Bildgeneratoren wie DALL-E innerhalb nur weniger Monate großes Interesse auf sich ziehen.

Angesichts der schnellen Verbreitung dieser Tools müssen CISOs dringend die damit verbundenen Cybersicherheitsrisiken verstehen – und wie sich diese Risiken grundlegend von allen bisherigen unterscheiden.

Ungebremste Aufnahme

Zu sagen, dass Unternehmen von den Möglichkeiten generativer KI begeistert sind, ist eine gewaltige Untertreibung. Laut einer Umfrage gaben nur sechs Monate nach der öffentlichen Einführung von ChatGPT 49 % der Unternehmen an, dass sie es bereits nutzen, 30 % gaben an, dass sie planen, es zu nutzen, und 93 % der Early Adopters beabsichtigten, es häufiger zu nutzen.

Wozu? Alles vom Schreiben von Dokumenten über das Generieren von Computercode bis hin zur Durchführung von Kundendienstinteraktionen. Und das kratzt kaum an der Oberfläche dessen, was noch kommt. Befürworter behaupten, dass KI dabei helfen wird, komplexe Probleme wie den Klimawandel zu lösen und die menschliche Gesundheit zu verbessern – zum Beispiel durch die Beschleunigung von Arbeitsabläufen in der Radiologie und die Genauigkeit von Röntgen-, CT- und MRT-Ergebnissen, während gleichzeitig die Ergebnisse mit weniger Fehlalarmen verbessert werden.

Doch jede neue Technologie birgt Risiken, einschließlich neuartiger Schwachstellen und Angriffsmodalitäten. Bei all dem Lärm und der Verwirrung rund um die heutige KI sind diese Risiken noch nicht ausreichend verstanden.

Was macht generative KI anders?

Maschinelles Lernen (ML) und frühe Formen der KI begleiten uns schon seit einiger Zeit. Selbstfahrende Autos, Aktienhandelssysteme, Logistiklösungen und mehr werden heute durch eine Kombination aus ML und KI angetrieben. In Sicherheitslösungen wie XDR identifiziert ML Muster und Benchmarks für Verhaltensweisen, wodurch Anomalien leichter erkennbar werden. KI fungiert als Wachhund, überwacht Aktivitäten und erkennt potenzielle Bedrohungen auf der Grundlage dieser ML-Analyse, wie normale oder nicht bedrohliche Aktivitäten aussehen, und löst bei Bedarf automatisierte Reaktionen aus.

Aber ML und einfachere Formen der KI beschränken sich letztlich auf die Arbeit mit den Daten, die ihnen zugeführt werden. Generative KI ist anders, weil ihre Algorithmen nicht notwendigerweise fest oder statisch sind, wie es normalerweise bei ML der Fall ist: Sie entwickeln sich oft ständig weiter, bauen im Rahmen ihres Lernens auf den vergangenen „Erfahrungen“ des Systems auf und ermöglichen es ihm, völlig neue Informationen zu erstellen.

Bisher haben böswillige Akteure ML und eingeschränktere Formen der KI weitgehend gemieden, da ihre Ergebnisse nicht besonders wertvoll für die Ausbeutung sind. Aber die Datenverarbeitungskapazität von ML in Kombination mit der Kreativität generativer KI ergibt ein weitaus überzeugenderes Angriffswerkzeug.

Sicherheitsrisiken: Schlüsselfragen

Mit wem sprichst du wirklich?

Der britische Mathematiker und Informatiker Alan Turing erfand in den 1950er Jahren einen Test, um herauszufinden, ob ein ausreichend fortschrittlicher Computer bei der Konversation in natürlicher Sprache mit einem Menschen verwechselt werden kann. Das LaMDA-KI-System von Google hat diesen Test im Jahr 2022 bestanden und verdeutlicht damit eines der größten Sicherheitsbedenken bei generativer KI, nämlich ihre Fähigkeit, menschliche Kommunikation zu imitieren.

Diese Fähigkeit macht es zu einem leistungsstarken Werkzeug für Phishing-Angriffe, die sich bisher auf gefälschte Nachrichten verlassen, die häufig mit Rechtschreibfehlern versehen sind. KI-erstellte Phishing-Texte und -E-Mails hingegen sind ausgefeilt und fehlerfrei und können sogar einen bekannten Absender nachahmen, beispielsweise den CEO eines Unternehmens, der seinem Team Anweisungen erteilt. Deep-Fake-Technologien werden mit ihrer Fähigkeit, die Gesichter und Stimmen von Menschen nachzuahmen und ganze „Szenen“ zu erstellen, die nie stattgefunden haben, noch einen Schritt weiter gehen.

Generative KI kann dies nicht nur eins zu eins, sondern auch in großem Maßstab tun und mit vielen verschiedenen Benutzern gleichzeitig interagieren, um maximale Effizienz und Durchdringungschancen zu erzielen. Und hinter diesen Phishing-Angriffen könnte bösartiger Code stecken, der ebenfalls von KI-Programmen für den Einsatz bei Cyberangriffen generiert wird.

Wem gehören Ihre Informationen?

Viele Unternehmen sind auf den KI-Chatbot-Zug aufgesprungen, ohne die Auswirkungen auf ihre Unternehmensdaten – insbesondere sensible Informationen, Wettbewerbsgeheimnisse oder Datensätze, die der Datenschutzgesetzgebung unterliegen – vollständig zu berücksichtigen. Tatsächlich gibt es derzeit keinen klaren Schutz für vertrauliche Informationen, die in öffentliche KI-Plattformen eingegeben werden, unabhängig davon, ob es sich um persönliche Gesundheitsdaten handelt, die zur Vereinbarung eines Arzttermins bereitgestellt werden, oder um geschützte Unternehmensinformationen, die über einen Chatbot laufen, um ein Marketing-Handout zu erstellen.

Eingaben in einen öffentlichen KI-Chatbot werden Teil des Plattformerlebnisses und könnten in zukünftigen Schulungen verwendet werden. Selbst wenn diese Schulung von Menschen moderiert wird und die Privatsphäre geschützt ist, können Gespräche über den anfänglichen Austausch hinaus „leben“, was bedeutet, dass Unternehmen nach der Weitergabe nicht die volle Kontrolle über ihre Daten haben.

Können Sie den Aussagen der generativen KI vertrauen?

Es ist bekannt, dass KI-Chatbots anfällig für sogenannte Halluzinationen sind und falsche Informationen generieren. Reporter der New York Times fragten ChatGPT, wann ihre Zeitung zum ersten Mal über künstliche Intelligenz berichtete und die Plattform einen Artikel aus dem Jahr 1956 samt Titel und allem heraufbeschwor, der nie existierte. Es ist eindeutig ein strategisches und rufschädigendes Risiko für das Unternehmen, KI-Ergebnisse auf Vertrauen zu nehmen und sie mit Kunden, Partnern oder der Öffentlichkeit zu teilen oder Geschäftsstrategien darauf aufzubauen.

Ebenso besorgniserregend ist die Anfälligkeit generativer KI für Fehlinformationen. Alle KI-Plattformen werden anhand von Datensätzen trainiert, weshalb die Integrität dieser Datensätze von entscheidender Bedeutung ist. Entwickler gehen zunehmend dazu über, das Live-Echtzeit-Internet als kontinuierlich aktualisierten Datensatz zu nutzen, wodurch KI-Programme dem Risiko ausgesetzt werden, mit schlechten Informationen in Berührung zu kommen – entweder unbeabsichtigt fehlerhaft oder in böswilliger Absicht eingeschleust, um die KI-Ausgaben zu verfälschen, was möglicherweise Sicherheitsrisiken mit sich bringt.

Was kann man gegen generative KI-Sicherheitsrisiken tun?

Viele Sicherheitsunternehmen planen, KI zur Bekämpfung von KI einzusetzen und entwickeln Software zur Erkennung von KI-generierten Phishing-Betrügereien, Deep Fakes und anderen falschen Informationen. Solche Tools werden in Zukunft immer wichtiger.

Dennoch müssen Unternehmen ihre eigene Wachsamkeit an den Tag legen, insbesondere weil generative KI traditionelle Informationssilos untergraben kann, die Informationen passiv schützen. Während die Cloud den Unternehmen eine Art Testlauf mit den Belastungen verteilter Datenverantwortung und offener Systeme ermöglicht hat, führt die generative KI zu neuen Ebenen der Komplexität, die mit einer Kombination aus technologischen Tools und fundierten Richtlinien bewältigt werden müssen.

Stellen Sie sich zum Beispiel ein Unternehmen vor, das in der Vergangenheit seine Kunden-Zahlungskarteninformationen (PCI) getrennt von anderen Datensätzen aufbewahrt hat. Wenn jemand im Unternehmen eine öffentliche KI-Plattform nutzt, um Umsatzwachstumschancen auf der Grundlage des bisherigen Ausgabeverhaltens der Kunden zu identifizieren, könnten diese PCI-Daten Teil der KI-Wissensdatenbank werden und an anderen Stellen auftauchen.

Einer der wichtigsten Schritte, die ein Unternehmen unternehmen kann, um sich zu schützen, besteht darin, nicht zu denken, dass es nicht gefährdet sei, weil es keine KI-Tools besitzt oder deren Einsatz nicht genehmigt. Mitarbeiter, Partner und Kunden nutzen möglicherweise alle öffentliche KI-Plattformen und geben ihnen absichtlich oder unabsichtlich potenziell kompromittierende Unternehmensinformationen weiter.

Es ist klar, dass generative KI aus Sicht der Cybersicherheit viel zu bedenken gibt, und wir stehen erst am Anfang dessen, wohin diese neue Technologie führen wird. In unserem nächsten Blogbeitrag werfen wir einen genaueren Blick darauf, was Organisationen tun können, um sich zu schützen.

Nächste Schritte

Weitere Ideen von Trend Micro zum Thema generative KI finden Sie in den folgenden Ressourcen:

Greg Young

Vizepräsident für Cybersicherheit, Trend Micro