ChatGPT & Co.: Datenschutzrisiken bei KI-Chatbots
Die Nutzung von KI-Chatbots wie ChatGPT, Google Gemini oder Microsoft Copilot wirft erhebliche Datenschutzfragen auf. Eingaben der Nutzer können zum Training der Modelle verwendet werden – auch wenn sie persönliche oder geschäftliche Informationen enthalten.
Datenschutz-Risiken
- Trainingsdaten: Ihre Eingaben können zur Verbesserung der KI verwendet werden, sofern Sie nicht widersprechen.
- Speicherung: Chat-Verläufe werden auf den Servern der Anbieter gespeichert.
- Datenabfluss: Sensible Geschäftsgeheimnisse, die in Chats eingegeben werden, könnten in Modellausgaben für andere Nutzer erscheinen.
- Halluzinationen: KI kann falsche Informationen über reale Personen generieren, was Persönlichkeitsrechte verletzt.
Empfehlungen
Geben Sie keine persönlichen Daten, Geschäftsgeheimnisse oder vertrauliche Informationen in KI-Chatbots ein. Deaktivieren Sie die Option zur Verwendung Ihrer Daten für Trainingszwecke, falls verfügbar. Nutzen Sie für sensible Anfragen lokale KI-Modelle, die nicht mit externen Servern kommunizieren.
Weitere Artikel
Dark Patterns in Online-Shops: So werden Sie manipuliert
Confirmshaming, versteckte Kosten, Countdown-Timer – viele Online-Shops nutzen manipulative Designtricks. So erkennen und wehren Sie sich dagegen.
Cookie-Banner: Diese Tricks sind illegal
Viele Cookie-Banner verstoßen gegen die DSGVO. Erfahren Sie, welche Praktiken illegal sind und wie Sie Ihre Rechte durchsetzen können.
Alexa, Siri & Co.: Was Ihre Smart Speaker mithören
Smart Speaker sind praktisch, aber ein Risiko für Ihre Privatsphäre. So schützen Sie sich vor ungewolltem Mithören und Datenmissbrauch.