ChatGPT im Unternehmen: Chancen und Risiken
ChatGPT und andere Large Language Models (LLMs) bieten enormes Potenzial für Unternehmen. Doch der Einsatz in Deutschland erfordert besondere Sorgfalt beim Datenschutz. Die DSGVO stellt klare Anforderungen an den Umgang mit personenbezogenen Daten – und genau hier lauern die größten Fallstricke.
Die größten Datenschutz-Risiken
1. Daten im Prompt
Jede Eingabe an ChatGPT wird an OpenAI-Server in den USA übermittelt. Wenn Mitarbeiter Kundennamen, E-Mail-Adressen oder interne Dokumente in Prompts eingeben, handelt es sich um eine Datenübermittlung in ein Drittland.
2. Trainingsdaten
Standardmäßig können eingegebene Daten zum Training der Modelle verwendet werden. Das bedeutet: Geschäftsgeheimnisse könnten in zukünftige Modell-Antworten einfließen.
3. Fehlende Auftragsverarbeitung
Ohne einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO ist die geschäftliche Nutzung von ChatGPT rechtlich problematisch.
So setzen Sie ChatGPT DSGVO-konform ein
Organisatorische Maßnahmen
Technische Maßnahmen
Vertragliche Maßnahmen
**Unser Tipp:** Starten Sie mit der ChatGPT API oder Enterprise-Version und erstellen Sie eine interne KI-Richtlinie, bevor Sie den Einsatz im Team ausrollen.
Fazit
ChatGPT lässt sich DSGVO-konform im Unternehmen einsetzen – aber nicht ohne Vorbereitung. Mit den richtigen organisatorischen, technischen und vertraglichen Maßnahmen minimieren Sie die Risiken und profitieren gleichzeitig von den enormen Produktivitätsgewinnen.