ChatGPT und die Informationssicherheit
- 24. April 2023
- Veröffentlicht durch: Kevin Jilg
- Kategorien: Technologie, Unternehmen

Wie kann #ChatGPT möglichst sicher im Unternehmen eingesetzt werden? In diesem Post geht es nicht um die vielfältigen Use Cases, sondern um die technologischen und organisatorischen Voraussetzungen, um u.a. Information Disclosure, also die unbeabsichtigte Veröffentlichung von Unternehmensinterna, zu vermeiden. Standardmäßig können Chatverläufe nämlich in die Trainingsdaten einfließen und damit könnten die dort enthaltenen Informationen Dritten zugänglich werden. OpenAI bietet jedoch auch ein Opt-Out-Formular an, um dieser Datennutzung zu widersprechen.
Mehr Infos zur Datennutzung und ein Link zum Opt-Out-Formular gibt es in diesem FAQ von OpenAI (https://lnkd.in/eZNxw2qb).
Ok, wir haben der Datennutzung widersprochen, also alles gut? Leider nein, denn die Region, in der die Daten verarbeitet werden, lässt sich aktuell nicht kontrollieren. Falls für Sie wichtig ist, dass die Daten in Europa verbleiben, brauchen Sie eine Alternative wie bspw. die Azure OpenAI Services. Darüber erhalten Sie ebenfalls API-Zugriff auf die verschiedenen OpenAI Modelle, können aber die Regionen einschränken und Microsoft verspricht, die Kundendaten nicht für das Training der Modelle zu verwenden. Es wird jedoch die Einhaltung der Responsible AI Principles kontrolliert, wodurch Microsoft Mitarbeiter möglicherweise Zugriff auf die Daten erhalten. Für besonders kritische Daten, kann dieser Kontrolle widersprochen werden, allerdings müssen die Use Cases von Microsoft freigegeben werden.
Mehr Infos zum Datenschutz beim Azure OpenAI Service finden Sie hier: https://lnkd.in/eJEAVVtQ.
Neben den OpenAI Modellen gibt es zunehmend auch konkurrenzfähige Angebote von anderen Anbietern. Eine deutsche Alternative ist dabei Aleph Alpha (https://lnkd.in/dR3MDmPA). Falls Sie nach einer Open-Source Alternative suchen, könnte Open Assistant (https://open-assistant.io/) interessant sein, aber Achtung: der kommerzielle Einsatz ist nicht für jedes Modell erlaubt.
Neben der Sicherheit der eigenen Daten, sollten Sie auch unbedingt auf sensible Daten in den KI-Erzeugnissen achten, denn auch diese sollten nicht weiterverbreitet werden.
Disclaimer: Dies ist keine Rechtsberatung. Die hier aufgeführten Informationen und Links können jederzeit veralten. Die Vollständigkeit und Korrektheit kann entsprechend nicht garantiert werden.
Wir helfen Ihnen gerne in einem persönlichen Gespräch. Vereinbaren Sie noch heute einen Termin.