Wusstest du, dass viele KI-Tools standardmäßig deine Daten nutzen, um ihre Modelle zu trainieren? In diesem Video zeigen wir dir, wie du die Datenschutzeinstellungen der gängigsten Anbieter anpasst und sicherstellst, dass deine Daten geschützt bleiben. Erfahre, welche Optionen es gibt, was du beachten musst und wie du die Kontrolle über deine sensiblen Daten behältst.
Ergebnis: Nach diesem Video weißt du, wie du die Datenschutzeinstellungen von KI-Tools wie Anthropic, LinkedIn, Perplexity und Microsoft Copilot so anpasst, dass deine Daten nicht für das Training verwendet werden.
- Anthropic (Cloud):
- Standardmäßig werden keine User-Daten zum Training genutzt.
- Ausnahmen: Nur bei proaktivem Feedback oder Trust & Safety Reviews.
- LinkedIn:
- In der EU werden deine Daten nicht zum Training verwendet.
- Falls du außerhalb der EU bist, gehe auf Einstellungen > Datenschutz und deaktiviere die Option “KI-Modelle mit Daten trainieren”.
- Perplexity:
- Gehe in die Pro-Einstellungen.
- Schalte “AI Data Retention” aus, um deine Daten von der Trainingsnutzung auszuschließen.
- Beachte: Vergangene Daten können nicht rückwirkend gelöscht werden.
- Microsoft Copilot:
- In der Business-Version von Microsoft 365 werden keine Daten fürs Training genutzt.
- In anderen Versionen ist das Training noch nicht aktiv, aber eine Opt-out-Option wird in Europa verfügbar sein.
- Allgemeiner Tipp:
- Kopiere keine sensiblen Daten in KI-Tools, selbst wenn das Training deaktiviert ist, da die Daten häufig in den USA verarbeitet werden.
- Verstehen, wie KI-Tools Daten nutzen und welche Risiken bestehen.
- Lernen, wie man Datenschutzeinstellungen bei verschiedenen Tools anpasst.
- Sensibilität für den Umgang mit sensiblen Daten in KI-Tools entwickeln.
- Anthropic
- Perplexity
- Microsoft Copilot