What could possibly go wrong? Neuerdings wollen immer mehr Menschen ChatGPT im Unternehmen einsetzen. Macht doch jeder, das ist so in Ordnung so. Ist das so? Kann man es sich wirklich so einfach machen? Und birgt das nicht ein ganz kleines bisschen eine Gefahr? Was ist mit sensiblen Daten? Nehmen wir Kundendaten, Produktionsdokumente und all der Kram, den Unternehmen in Ihrem Datenbestand haben: Kann damit irgendwas passieren, wenn ich ChatGPT beruflich nutze? Was meint ihr? Es ist bestimmt nicht so schlimm, oder?
Jeder nutzt es
Was ist das für ein Hype! Ich bekomme ja viel mit, wenn der Tag lang ist. Alle Welt kam schon mal mit irgendeinem Post um die Ecke, der so viel bedeutete wie „Ich habe ChatGPT gebeten…“ oder „Ich habe ChatGPT gefragt…“. Das habt ihr doch bestimmt auch alles schon gesehen. Kann es sein, dass alle Welt damit einer Technologie, auf die wir keinerlei Einfluss haben, bereitwillig Daten anvertraut nach dem Motto „Wird schon schiefgehen“? Echt jetzt?
Da ist es auch kein Wunder, dass ChatGPT im Unternehmen immer mehr um sich greift. Aber wenn ich ganz ehrlich bin, ist mir nicht ganz wohl bei dem ganzen Theater um diesen Chatbot. Ich meine, laut einigen Seiten ist es halt so, dass der Programmiercode der Software nicht öffentlich einsehbar – also Open Source – ist. Und das ist nicht immer begrüßenswert. Darüber hinaus betreibt das US-Unternehmen OpenAI den Chatbot. Und schon sind wir bei der DSGVO.
Na und, macht doch jeder, also was soll’s! Naja, so einfach ist es nicht. Ihr wisst ja eben nicht, wohin da eure Daten gehen. Was kann denn OpenAI damit anfangen? Letztlich ist Elon Musk mit dem Unternehmen verbunden, auch wenn er nicht mehr der Präsident des Projekts ist. Und der macht nichts ohne Hintergedanken. Ich bin echt skeptisch, dass das alles so problemlos ist, wie man sich immer mal am Lagerfeuer erzählt. Aber da kann ich auch paranoid sein. Wer weiß?
Was bitte hat ChatGPT im Unternehmen zu suchen?
Da gibt es ein Security-Unternehmen namens Cyberhaven. Die haben bei ihren Klienten mitbekommen, dass etwa 4,2% aller 1,6 Millionen Nutzer ChatGPT im Unternehmen nutzen. Der Anbieter hat das natürlich unterbunden. Aber es waren eben auch sensible Unternehmensdaten enthalten, aus denen die Nutzer dann ein „Ich habe ChatGPT gefragt“ basteln wollten. Zu den Klienten zählen Microsoft, Amazon, Wal Mart und etliche andere. Und da wird es in meinen Augen kritisch.
Schön ist an dieser ganzen Nummer eigentlich immer die komplette Unbekümmertheit, mit denen solche Sachen benutzt werden. „Wir haben ChatGPT gefragt…“ wird zu Artikeln auf Seiten mit unzähligen Trackern. Damit haben dann auch die Werbebutzen etwas davon. Jeder gewinnt bei der Nummer. Dass aber im wahren Leben neben Gewinnern auch immer Verlierer auftauchen, unterschlägt man dabei. Und ich glaube, bei diesem Hype wird es noch viele Verlierer geben.
Es gibt Anleitungen, wie man ChatGPT im Unternehmen nutzen kann und Kennzahlen, Kundendaten und all das dem Chatbot zu fressen gibt, um damit irgendwas zu tun. Da wird mir regelrecht schlecht. Und was besonders merkwürdig an der ganzen Geschichte ist: Die ganzen Microsoft-ist-scheiße-Datenschützer bleiben bei ChatGPT extremst still. Wie kommt das denn bitte? Ich sehe hier eine Datenschutz-Katastrophe auf die Welt zurollen, und niemanden interessiert es. Wahnsinn!
Das ist mir alles zu viel Hype
Mehr als 300 Entwickler haben APIs zu ChatGPT gebastelt. Unter anderem integriert Microsoft das Ding in die Bing-Suche und wohl auch in Office. Andere sind aber auch nicht besser. Slack macht es, Shopify macht es, alle Welt öffnet sich der so genannten Künstlichen Intelligenz (Oh, er hat es genannt). Hat denn irgendjemand mal über die Konsequenzen nachgedacht? Ich meine damit nicht, dass ich Tante Lieschen erst verspätet Grüße schicken kann, weil ich selbst denken statt ChatGPT nutzen muss.
Wer weiß, vielleicht wird es ja mal so, dass ich mit ChatGPT im Unternehmen auch geheime Strategien preisgebe. Cyberhaven hat wohl den Labersack gefragt, was die Strategie von Apple sein soll. Da dieses Unternehmen verschwiegen ist, konnte die Software nichts ausspucken und hat das auch so genannt. Das muss aber nicht für alle Konzerne gelten. Am Ende werde ich auch weiterhin die Finger von dem Tool lassen. Mir ist das Alles viel zu riskant und viel zu viel Hype. Aber erzählt mir mal, wie ihr das Ding so seht.
Seit Konrad Zuse und seinem Z1 (1941) ging es (historisch bedingt) am IT Standort Deutschland leider bis auf wenige Ausnahmen (Siemens, SAP) nicht mehr so visionär weiter. Es werden US Techniken genutzt, von Windows, Office, Google etc. pp. Und auch die (an sich gut gemeinte) DSGVO wird ein weiterer Hemmschuh sein um auch weiterhin zuverlässig den Anschluss zu verpassen. Chat GPT und andere AI sehe ich weniger aus Datenschutzsicht kritisch, sondern wie diese den Arbeitsmarkt verändern wird. Dieser Prozess ist auch nicht mehr aufzuhalten.
Servus, ich habe ChatGPT bisher nur einmal verwendet, um zwei generische Absätze zu einer Sicherheitslücke für eine Dokumentation zu erstellen. Mehr aus Interesse. Das hat so weit funktioniert, quergelesen, etwas korrigiert und fertig.
Bei vielen anderen Tests hat das Ding einfach auch zu viel Unsinn erzählt. D.h. ohne Ahnung von der Thematik zu haben, wird da schnell viel Falsches verbreitet. ChatGPT antwortet ja immer irgendwas, selbstsicher, statt auch mal zu sagen, dass es etwas nicht weiß.
Ich bin gespannt, wie es sich weiterentwickelt, es ist am Ende ein Werkzeug, welches mit Bedacht eingesetzt werden muss.
Ansonsten möchte gar nicht wissen, wie viele Blogartikel im Netz damit schon generiert werden. :-)