Samsung-Mitarbeiter, die Berichten zufolge sensible Daten über den Chatbot ChatGPT von OpenAI weitergegeben haben, erteilen eine Lektion zur Vermeidung künftiger Sicherheitsverletzungen im Zusammenhang mit Large Language Models (LLMs).

Anfang April wurde bekannt, dass mehrere Mitarbeiter von Samsung bei drei verschiedenen Gelegenheiten versehentlich sensible Unternehmensdaten weitergegeben hatten. Unter den Informationen, die den Mitarbeitern des südkoreanischen Technologiegiganten zugespielt worden sein sollen, befand sich auch der Quellcode einer Software zur Vermessung von Halbleitergeräten. Obwohl OpenAI seine Nutzer ausdrücklich darauf hinweist, keine sensiblen Informationen in ihren Unterhaltungen auszutauschen, dürfte die Nützlichkeit von ChatGPT die Sicherheitsbedenken überwogen haben.

Auch wenn Samsung Berichten zufolge die Verwendung von generativen KI-Tools auf seinem Firmengelände verboten hat und ungehorsamen Mitarbeitern mit Kündigung droht, ist das Risiko, dass Firmengeheimnisse über einen KI-basierten Chatbot weitergegeben werden, nicht beseitigt. Datenlecks, an denen ein ChatGPT-ähnlicher Bot beteiligt ist, haben sogar einen eigenen Namen: Conversational AI Leak. Bei dieser Art von Leck handelt es sich um Ereignisse, bei denen sensible Daten, die in ein LLM eingegeben wurden, unbeabsichtigt offengelegt werden. ChatGPT ermögliche Verbindungen auf der Grundlage einer Anwendungsprogrammierschnittstelle (API), die es Unternehmen und Mitarbeitern ermögliche, sich mit dem KI-Dienst zu verbinden und dabei sensible Daten preiszugeben.

Eine Möglichkeit zu verhindern, dass ChatGPT von OpenAI, Bard von Google oder Ernie Bot von Baidu sensible Daten preisgeben, die LLMs von unvorsichtigen Mitarbeitern gelernt haben, besteht darin, dass Unternehmen einschränken, was ihre Kreationen sagen dürfen und was nicht. Einige haben bereits versucht, diesen Weg zu beschreiten, indem sie OpenAI aufgefordert haben, die Produktion von ChatGPT einzuschränken oder den Chatbot ganz zu entfernen. Nichtsdestotrotz werden Open-Source- oder Community-Versionen immer populärer, was bedeutet, dass es sehr problematisch sein wird, ihre Leistung zu begrenzen. "Insbesondere das Verbot von ChatGPT mag sich wie eine gute Reaktion anfühlen, aber es wird das größere Problem nicht lösen. ChatGPT ist nur eines von vielen generativen KI-Tools, die in den kommenden Jahren am Arbeitsplatz eingeführt werden", sagt Payne.

Ein anderer Ansatz zur Lösung des Problems könnte darin bestehen, den Input zu begrenzen. Unternehmen und Organisationen sollten sich darauf konzentrieren, den Einsatz von LLMs intern zu kontrollieren, indem sie festlegen, welche Art von Daten in ihre Modelle eingespeist werden. Außerdem könnten Unternehmen einschränken, wer Zugang zu Chatbots hat und wer nicht.

Da ChatGPT und seine Konkurrenten immer beliebter werden, sind sensible Datenlecks vorprogrammiert. Seitdem OpenAI aufgedeckt hat, dass eine Schwachstelle im ChatGPT-Bot Teile der Konversationen zwischen den Nutzern und in einigen Fällen auch deren Zahlungsdaten offengelegt hat, sind die Bedenken über die Sicherheit von ChatGPT gewachsen. Die italienische Datenschutzbehörde verbot daraufhin ChatGPT und der deutsche Gesetzgeber kündigte an, dem Beispiel Italiens folgen zu wollen. Später hob Italien das Verbot jedoch wieder auf, da der Hersteller des Chatbots die Datenschutzanforderungen der Aufsichtsbehörde erfüllte.

Quelle: https://cybernews.com/security/chatgpt-samsung-leak-explained-lessons/