complaid
Alle Artikel
PraxisDatenschutzDSGVO

ChatGPT im Büro: Was ist erlaubt, was nicht?

·2 Min. Lesezeit·Complaid Redaktion

Die Realität: ChatGPT ist längst im Büro

Ob E-Mails formulieren, Texte zusammenfassen oder Brainstorming — ChatGPT und vergleichbare KI-Tools sind in vielen Unternehmen Alltag. Oft ohne offizielle Freigabe, ohne Regeln, ohne Schulung.

Das Problem ist nicht die Nutzung selbst. Sondern was in die Tools eingegeben wird.

Was erlaubt ist

Grundsätzlich erlaubt — mit menschlicher Prüfung und freigegebenen Tools:

  • Allgemeine Textentwürfe (Mails, Absagen, Ankündigungen)
  • Brainstorming und Ideenfindung
  • Strukturierung von Inhalten, Gliederungen, Checklisten
  • Sprachliche Überarbeitung allgemeiner Texte
  • Allgemeine Recherche zu öffentlich verfügbaren Themen
  • Übersetzungen von nicht vertraulichen Inhalten

Die Grundregel: Wenn der Inhalt auch auf einem Whiteboard im Großraumbüro stehen könnte, ist er für KI-Tools in der Regel unbedenklich.

Was problematisch ist

Hier gilt: nur mit Vorsicht, Anonymisierung oder interner Freigabe.

  • Zusammenfassungen interner Dokumente — nur in abstrahierter Form
  • Kundenbezogene Inhalte — ohne direkte Kundendaten
  • Entwürfe für Angebote — ohne konkrete Preise oder Vertragsdaten
  • Meeting-Notizen — nur wenn sensible Inhalte entfernt wurden
  • Analyse interner Daten — nur nach Anonymisierung

Die Frage, die sich Mitarbeitende stellen sollten: Wäre es ein Problem, wenn dieser Inhalt öffentlich würde? Wenn ja → nicht eingeben.

Was klar verboten ist

Diese Inhalte haben in öffentlichen KI-Tools nichts verloren:

  • Personenbezogene Daten — Namen, Adressen, Geburtsdaten
  • Kundendaten — CRM-Inhalte, Kontaktdaten, Kaufhistorie
  • HR-Daten — Bewerbungen, Gehälter, Krankheitsdaten
  • Finanzdaten — Umsätze, Budgets, Forecasts
  • Verträge und Preislisten
  • Passwörter, Zugangsdaten, API-Keys
  • Quellcode und technische Dokumentation
  • Strategiepapiere und nicht veröffentlichte Pläne

Der Unterschied: kostenlos vs. Business

Viele Mitarbeitende nutzen ihre privaten ChatGPT-Konten beruflich. Das ist aus Datenschutzsicht besonders kritisch:

  • Kostenlose Version: Eingaben können für Modell-Training verwendet werden
  • ChatGPT Team / Enterprise: Daten werden nicht für Training genutzt, zusätzliche Datenschutzvereinbarung

Unternehmen sollten klar definieren, welche Tools freigegeben sind — und private Accounts für berufliche Nutzung explizit ausschließen.

Was Unternehmen tun sollten

  1. KI-Richtlinie erstellen — mit klaren Ampelregeln (erlaubt / mit Vorsicht / verboten)
  2. Freigegebene Tools definieren — idealerweise mit Datenschutzvertrag
  3. Mitarbeitende schulen — nicht nur einmal, sondern regelmäßig
  4. Nachweise dokumentieren — wer wurde wann geschult?
  5. Ansprechperson benennen — an wen wende ich mich bei Unsicherheit?

Fazit

ChatGPT im Büro verbieten bringt nichts — die Leute nutzen es trotzdem, nur heimlich. Besser: klare Regeln, kurze Schulung und sichere Alternativen anbieten.


Complaid hilft Unternehmen, KI-Nutzung sicher und regelkonform aufzusetzen. Kurs ansehen →

KI-Compliance in deinem Unternehmen sicherstellen?

Complaid schult Mitarbeitende im sicheren Umgang mit KI — mit Lernpfaden, Leitplanken und dokumentierbaren Nachweisen.