Datenschützer warnen seit langem, dass die unüberlegte Nutzung von Künstlicher Intelligenz (KI) ein Risiko für die Privatsphäre darstellen kann. Mit Diensten wie ChatGPT wird KI nun leicht in Unternehmen und Haushalten eingesetzt. Es ist höchste Zeit, den Umgang mit KI kritisch zu hinterfragen.
KI: Mehr als ein nützlicher Assistent
Der Chatbot antwortet druckreif auf jede Frage, oder die App malt ein Bild nach Anweisung und im gewünschten Stil – in den letzten Wochen und Monaten hat eine breite Öffentlichkeit getestet, was Künstliche Intelligenz inzwischen leisten kann, berichtete der Digitalverband Bitkom. Rund drei Viertel der Bundesbürger (73 Prozent) sehen KI nun als Chance.
Auch Unternehmen sind offen für KI-Dienste wie ChatGPT & Co: Bereits jedes sechste Unternehmen plant laut Bitkom den Einsatz von KI zur Textgenerierung. „Die aktuellen Entwicklungen in der Künstlichen Intelligenz ermöglichen uns, erstmals direkt mit der KI zu interagieren und schaffen völlig neue Einsatzbereiche quer durch alle Branchen“, sagte Bitkom-Präsident Achim Berg. „KI wird künftig zum Büroalltag genauso dazugehören wie heute der PC. KI hat das Potenzial, die massiven Auswirkungen der demografischen Entwicklung und des sich verschärfenden Fachkräftemangels abzufedern.“
Datenschützer sind alarmiert
Datenschutzaufsichtsbehörden weisen auf mögliche Risiken hin. KI-Systeme wie ChatGPT, die plötzlich zur Internetsuche oder zum Schreiben von Texten für verschiedenste Zwecke genutzt werden, können zwar beeindruckende Sprachqualität liefern, aber auch „ausgedachte“ Behauptungen als echte Fakten präsentieren. Betroffenenrechte könnten leer laufen, und überzeugende Antworten auf Datenschutzfragen fehlen, so das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein.
Die italienische Datenschutzbehörde untersagte als erste in Europa der Firma OpenAI, personenbezogene Daten von italienischen Bürgern im Rahmen der Anwendung ChatGPT zu verarbeiten. Es muss geklärt werden, wie mit personenbezogenen Daten der Nutzer oder Dritter umgegangen wird. Wer speichert sie, zu welchem Zweck und wie lange?
Neue und verschärfte Sicherheitsrisiken
IT-Sicherheitsforschende warnen davor, dass solche KI-Dienste bei Cyberangriffen eingesetzt werden könnten, um Opfer leichter zu täuschen, etwa durch zielgenau erstellte Phishing-Mails. Auch legitime Nutzer könnten die Datensicherheit gefährden, indem sie vertrauliche Daten an KI-Dienste übermitteln, die dann in den Datenbestand des Dienstes aufgenommen, ausgewertet und möglicherweise an Dritte weitergegeben werden.
Ein Beispiel: Der Versuch, ein Bewerbungsschreiben durch eine KI optimieren zu lassen, könnte zu einer ungewollten Weitergabe der Daten an Dritte führen. Verschiedene Unternehmen haben bereits intern verboten, vertrauliche Daten in Dienste wie ChatGPT einzugeben. Diese Gefahr sollten sich alle Nutzer bewusst machen.
Wissen Sie, wie KI-Dienste zum Datenleck werden könnten? Machen Sie den Test!
Wenn man in einen KI-Dienst seine eigenen Daten eingibt, damit diese zum Beispiel in einen professionellen Lebenslauf verwandelt werden, bleibt dies vertraulich. Stimmt das?
Nein, es ist nicht ohne Weiteres auszuschließen, dass die eingegebenen Daten in den gesamten Datenbestand aufgenommen werden.
Ja, jede Nutzung eines KI-Dienstes ist so vertraulich wie ein Gespräch unter vier Augen, nur zwischen KI und Nutzer.
Nein ist richtig. KI-Dienste sind darauf ausgelegt, zu „lernen“ und reagieren auf die Eingaben der Nutzer, um die Antworten zu optimieren. Dabei beziehen sie Daten aus möglichst vielen Quellen. Ob die Daten später für andere Zwecke genutzt werden als ursprünglich vorgesehen, ist eine Frage des Datenschutzes, den die KI gewährleisten muss. Automatisch kann man nicht von der Einhaltung der Zweckbindung ausgehen.
Antworten, die eine KI gibt, sind sorgfältig geprüft und vertrauenswürdig. Ist das so?
Ja, jede KI basiert auf einer Qualitätssicherung, sodass man den Ergebnissen vertrauen kann.
Nein, die Antworten können fehlerhaft sein. Eine weitere Prüfung ist notwendig.
Nein ist richtig. KI-Experten warnen davor, einer KI einfach zu vertrauen. KI-Lösungen sind nicht fehlerfrei. Es kann sogar sein, dass Dritte eine KI so trainiert haben, dass sie gezielt falsche Antworten gibt, um Nutzer zu manipulieren. Dies nennt man Data Poisoning. Es ist denkbar, dass über KI-Antworten Nutzer zu Aktivitäten verleitet werden sollen, die Sicherheitslücken ausnutzen.