|
Berlin (ots) - Immer mehr Unternehmen integrieren KI-Tools in ihre Prozesse -
von Vertragsanalysen über Marketingtexte bis hin zu internen
Entscheidungsmodellen. Doch oft müssen dazu sensible Daten in cloudbasierte
Systeme eingespeist werden, deren Infrastruktur außerhalb des eigenen
Unternehmens liegt. Damit rückt eine zentrale Frage in den Fokus: Wie sicher
sind Geschäftsgeheimnisse, Kundendaten und strategische Informationen, wenn
cloudbasierte KI-Anwendungen im Hintergrund mitlernen?
Viele Unternehmen unterschätzen, dass KI nicht nur ein Effizienztool ist,
sondern auch ein Datenrisiko sein kann. Hier erfahren Sie, welche rechtlichen
und technischen Risiken bestehen, wie sich Datenlecks vermeiden lassen und
welche Sicherheitsstandards erfüllt sein sollten, bevor sensible Informationen
in KI-Systeme eingespeist werden.
Vertraulichkeit: Wer Zugriff auf die Daten hat
Das drängendste Risiko einer Cloud-KI betrifft die Vertraulichkeit. Dahinter
stehen zwei Fragen. Erstens: Wie gut schützt der Anbieter die Daten seiner
Nutzer? Nicht jedes Unternehmen, das KI anbietet, verfügt über starke
Sicherheitsmaßnahmen. Kommt es zu einem Datenleck, können eingegebene
Informationen öffentlich und dann kaum noch kontrolliert werden.
Zweitens geht es darum, wofür der Anbieter die Daten selbst nutzt. Viele
Cloud-KI-Systeme verwenden Eingaben standardmäßig für das weitere Training ihrer
Modelle. Das bedeutet: Daten könnten theoretisch bei späteren Abfragen wieder
auftauchen. Teilweise lässt sich diese Nutzung deaktivieren. Bei vielen
integrierten KI-Funktionen in bestehenden Cloud-Anwendungen fehlt diese
Möglichkeit jedoch. Fast jede größere Cloud-Anwendung bringt heute irgendeine
KI-Funktion mit. Was mit den eingegebenen Daten geschieht, bleibt für Nutzer
dabei oft unklar.
Gerade für Unternehmen ist das riskant. Denn wer Kundendaten, interne Notizen
oder projektspezifische Informationen eingibt, gibt unter Umständen Inhalte
preis, die klar dem eigenen Haus zuzuordnen sind. Werden sie öffentlich, leidet
nicht nur der Ruf. Auch rechtliche Folgen sind möglich.
Integrität: Wenn Auswertungen auf falschen Grundlagen beruhen
Ein weiteres Risiko ist die Integrität der Daten. Gemeint ist damit die Frage,
ob die verarbeiteten Informationen korrekt und unverändert bleiben. Wer Daten in
eine KI eingibt und anschließend Abfragen darauf aufbaut, geht meist davon aus,
dass die Grundlage stimmt. Genau das ist aber nicht immer der Fall.
KI-Systeme können Inhalte verfälschen, falsch deuten oder fehlerhafte Ergebnisse
liefern. Das fällt nicht immer sofort auf. Gerade darin liegt die Gefahr. Denn
Entscheidungen werden dann auf einer Basis getroffen, die nicht verlässlich ist.
Statt Klarheit entsteht Unsinn, mitunter an Stellen, an denen Präzision
unverzichtbar ist.
Besonders kritisch ist das bei Auswertungen, Dokumenten oder Analysen, auf die
sich Unternehmen verlassen. Offene Fehler lassen sich oft noch erkennen.
Schwieriger sind die kleinen Abweichungen, die erst auffallen, wenn bereits ein
Schaden entstanden ist.
Verfügbarkeit: Wenn ein System plötzlich nicht mehr da ist
Neben Vertraulichkeit und Integrität spielt auch die Verfügbarkeit eine zentrale
Rolle. Ein KI-Werkzeug hilft nur dann dauerhaft, wenn es morgen noch ebenso
nutzbar ist wie heute. Gerade bei Funktionen, die als Beta-Version in ein
Cloud-Produkt eingebaut wurden, ist das keineswegs sicher.
Anbieter können Funktionen wieder abschalten, stark verändern oder ganz
einstellen, wenn sie sich im Einsatz nicht bewähren. Für Unternehmen kann das
zum ernsten Problem werden. Denn vielleicht wurden bereits Daten eingegeben,
Abläufe darauf abgestimmt oder feste Prozesse aufgebaut. Fällt die Funktion dann
weg, sind Daten womöglich nicht mehr zugänglich oder nicht mehr sinnvoll
nutzbar. Gleichzeitig muss schnell Ersatz gefunden werden.
Wer eine Cloud-KI produktiv einsetzt, sollte daher nicht nur fragen, wie modern
das System ist. Ebenso wichtig ist, wie stabil der Anbieter aufgestellt ist und
wie verlässlich seine Lösung langfristig bleibt.
Was Unternehmen konkret tun können
Ganz schutzlos sind Unternehmen nicht. Beim Thema Vertraulichkeit lässt sich
zumindest ein Teil des Risikos durch klare vertragliche Regelungen mindern. Wer
mit dem KI-Anbieter festhält, dass eingegebene Daten nicht für Trainingszwecke
genutzt werden dürfen, schafft eine verbindliche Grundlage.
Eine andere Möglichkeit sicherzustellen, dass eine Cloud-KI den eigenen
Sicherheitsstandards entspricht, ist, auf einschlägige Zertifizierungen des
Cloud-KI-Anbieters zu achten: Zertifizierungen nach den internationalen
Standards ISO 27001 und 27017 oder dem deutschen Standard BSI C5 zeigen meist,
dass ein Unternehmen gut aufgestellt ist.
Reicht das nicht aus, bleibt nur der konsequenteste Weg: eine eigene KI auf der
eigenen Infrastruktur. Das heißt, die Lösung läuft auf einem unternehmenseigenen
Server, wird selbst betrieben und gegebenenfalls auch selbst trainiert. Einfach
ist das nicht. Der Aufwand ist deutlich höher als die fertige Cloud-KI-Lösung
"von der Stange" zu nutzen, technisch wie organisatorisch. Dafür bleibt die
Kontrolle dort, wo sie hingehört: im eigenen Unternehmen.
Wenn Datenschutz und Vertraulichkeit keine Kompromisse erlauben, ist aber genau
das oft die sicherste Lösung. Cloud-KI kann viel leisten. Blindes Vertrauen ist
jedoch fehl am Platz. Wer die Risiken kennt und sauber prüft, nutzt die Technik
klüger und deutlich sicherer.
Über Joachim Reinke
Joachim Reinke ist Experte für Informationssicherheit und Mitglied des Teams von
einfachISO. Er begleitet IT-Dienstleister, Software-Agenturen und
SaaS-Unternehmen auf ihrem Weg zur ISO 27001-Zertifizierung. Sein Schwerpunkt
liegt auf klar strukturierten, praxisnahen Lösungen speziell für kleine und
mittlere Unternehmen. Bereits über 100 Unternehmen hat er erfolgreich bis zur
Zertifizierung geführt. Weitere Informationen unter: https://einfachiso.de/
Pressekontakt:
einfachISO GmbH
Vertreten durch: Jörn Bungartz, Joachim Reinke
mailto:info@einfachiso.de
https://einfachiso.de/
Weiteres Material: http://presseportal.de/pm/182384/6265069
OTS: einfachISO GmbH
|