Zu den Vorteilen von ChatGPT gehören die Zeitersparnis durch schnellere und präzisere Problemanalysen, beschleunigte Prozesse und die Skalierbarkeit. Das Tool lässt sich jeweils an einen bestimmten Schreibstil anpassen. Bei Geschäftsprozessen, bei denen eine große Anzahl von Anfragen sofort und effektiv, möglicherweise sogar gleichzeitig beantwortet werden muss, trägt der KI-Bot dazu bei, die Kundenzufriedenheit zu erhöhen und möglichen Personalmangel auszugleichen.
Zu den potenziellen Risiken und Nachteilen der Technologie gehören die Frage nach dem verantwortungsvollen Umgang mit den Daten der Nutzer:innen und mögliche Verstöße gegen Datenschutz- und Urheberrechtsbestimmungen.
Gut zu wissen hierbei: Wenn Sie den Chatbot in Ihrem Unternehmen einsetzen, können Sie über die Einstellungen verhindern, dass OpenAI Ihre persönlichen Daten für das KI-Training weiterverwendet.
Ob ChatGPT in Europa als datenschutzkonform angesehen werden kann oder nicht, war vom Start weg eine viel diskutierte Frage. Wichtig ist, dass Sie intern im Unternehmen klare Richtlinien für den Einsatz der neuen Technologie aufstellen und gewährleisten, dass personenbezogene Daten geschützt und Geschäftsgeheimnisse gewahrt bleiben. Ein Beispiel: Wenn ChatGPT automatisch eine Bewerbungsabsage verfassen soll, dürfen dort keine personenbezogenen Daten auftauchen. Und wenn beispielsweise sensible Kundendaten über ChatGPT unsachgemäß behandelt oder weitergegeben werden, kann das zu rechtlichen Konsequenzen und darüber hinaus zu Rufschädigung führen.
Problematisch sind zudem die mangelnde Nachvollziehbarkeit der Ergebnisquellen und die teils ungenauen Antworten des Chatbots. Fehlerquellen in Lerndatenbeständen des KI-Bots sind für Anwender:innen schwer erkennbar.
Daher ist eine ständige Kontrolle durch die Nutzer:innen nötig, um Ungenauigkeiten zu vermeiden und Risiken zu minimieren. Insgesamt gilt: Die Verantwortung für die Ergebnisse von ChatGPT liegt nicht bei dem Chat-System, sondern bei der Person oder dem Unternehmen, das sie verarbeitet. Eine eingehende Prüfung und kritisches Hinterfragen sind also in jedem Fall notwendig.
Arbeitsrechtliche Sicht
Aus arbeitsrechtlicher Sicht muss für den Einsatz von ChatGPT in Unternehmen geklärt sein, in welchem Umfang der Chatbot eingesetzt werden darf. Grundsätzlich soll Arbeit persönlich erbracht werden und darf nicht ohne Zustimmung auf Dritte verlagert werden. Der Einsatz von Hilfsmitteln bei der Ausführung einer Tätigkeit ist hingegen erlaubt.
Unternehmen und dessen Mitarbeiter:innen müssen sich bewusst sein, dass die von ChatGPT generierten Texte Fehler enthalten können und sollten diese grundsätzlich überprüfen. Eine Kontrolle aus arbeitsrechtlicher Sicht umfasst außerdem den Schutz persönlicher Daten. Beispielsweise kann bereits die Speicherung von Logfiles einen Verstoß gegen das Datenschutzrecht darstellen. Gegebenenfalls sollten Unternehmen ihren Betriebsrat bei der Einführung von ChatGPT beteiligen. Unternehmen müssen gezielte Vorkehrungen treffen, damit der Chatbot nicht versehentlich Beschäftigtendaten preisgibt, die unter die Datenschutz-Grundverordnung fallen. Dazu gehört auch die Veröffentlichung von Fotos oder Videoaufzeichnungen von Angestellten ohne deren vorherige Einwilligung.
Sicherheitsrisiken
Wenn Unternehmen in Zukunft ihr Wissen mittels der Sprachmodelle US-amerikanischer Unternehmen bereitstellen, muss dies in Übereinstimmung mit dem europäischen Recht geschehen. Datenschutzbeauftragte sind hier gefordert, auch weil ChatGPT einige Daten in personenbezogen Informationen verwandeln und beispielsweise ableiten könnte, wie gesund eine Person ist und wo sie wohnt. ChatGPT-Nutzer:innen haben wenig Kontrolle darüber, wer Zugang auf ihre Daten erhält. Daher sollten Unternehmen Risikobewertungen erstellen und geeignete Maßnahmen zur Minimierung von Sicherheitsrisiken ergreifen.
Ende März 2023 erst gab es einen Dämpfer für den ChatGPT-Boom in Europa. Einige Nutzer:innen in Italien konnten unberechtigt Unterhaltungen anderer Personen erkennen. Außerdem konnten Unbefugte auch Finanzdaten von Kund:innen der kostenpflichtigen ChatGPT-Version einsehen. Daraufhin verbot Italien ChatGPT zunächst; nach Sicherheitsanpassungen seitens der Entwickler:innen folgte jedoch bereits Ende April die Aufhebung der Sperrre. In der Zwischenzeit hatte OpenAI die Einstellungen für den Schutz persönlicher Daten verbessert und Filter eingeführt, die beispielsweise Hassreden aufdecken.
Die Europäische Kommission reagierte auf den Vormarsch von ChatGPT mit Gesetzesanpassungen und differenziert seither schrittweise zwischen risikoarmen und verbotenen KI-Technologien. KI-Systeme wie das Social-Scoring, das Menschen nach ihrem Sozialverhalten klassifiziert und bewertet, gelten demnach als zu risikoreich und sind verboten.
Urheberrecht
Einige Nutzer:innen von ChatGPT sind sich nicht bewusst, dass sie durch die Nutzung des Chatbots Urheberrechte verletzen können. Der KI-Bot bezieht Informationen aus dem Internet oder aus Eingaben anderer Personen. Inwieweit diese durch das Urheberrecht geschützt sind, ist eine rechtliche Grauzone. Unstrittig ist zumindest, dass bei KI-generierten Übersetzungen geschützter Texte aus Literatur, Songs oder Drehbüchern das Urheberrecht erhalten bleibt. Dies gilt auch dann, wenn einzelne fiktionale Charaktere daraus erkennbar sind.
Fachtexte hingegen müssen laut Europäischem Gerichtshof (EuGH) hohe Anforderungen erfüllen, um urheberrechtlichen Schutz zu genießen. ChatGPT selbst wird keine persönliche geistige Schöpfung zugestanden. Aus urheberrechtlicher Sicht soll das Tool nur als Inspirationsquelle und zum Beispiel für die Entwicklung einer Textstruktur dienen. Wenn die KI Texte vollständig erstellt hat, muss dies kenntlich gemacht werden.