logistic ready

Fachportal für Intralogistik

Das Teilen sensibler Geschäftsdaten mit ChatGPT kann riskant sein

Das Teilen sensibler Geschäftsdaten mit ChatGPT kann riskant sein

ChatGPT und ähnliche große Sprachmodelle lernen aus den ihnen gegebenen Daten, sodass das Teilen sensibler Geschäftsinformationen mit KI-„Chatbots“ ein hohes Risiko birgt.

Geschrieben von Michael Hill

Der Hype um ChatGPT bleibt auf einem Allzeithoch, da KI-Chatbot-Funktionen weiterhin Schlagzeilen machen. Ein Thema, das die Aufmerksamkeit vieler im Sicherheitsbereich auf sich gezogen hat, ist die Frage, ob Technologien, die sensible Geschäftsdaten aufnehmen, Unternehmen einem Risiko aussetzen. Es besteht die Befürchtung, dass, wenn jemand vertrauliche Informationen eingibt – Quartalsberichte, interne Präsentationsmaterialien, Verkaufszahlen usw. – Und bitten Sie ChatGPT, einen Text darüber zu schreiben, jeder kann Informationen über diese Firma erhalten, indem Sie später einfach ChatGPT danach fragen.

Am 22. März bestätigte Sam Altman, CEO von OpenAI, Gerüchte über einen Fehler in ChatGPT, der es einigen Benutzern ermöglichte, die Titel der Unterhaltungen anderer Benutzer zu sehen. Am 20. März begannen Benutzer, Konversationen in ihrem Chatverlauf zu sehen, von denen sie behaupteten, sie hätten sie nicht mit dem Chatbot geführt. Altman sagte, das Unternehmen fühle sich „schrecklich“, aber der „wichtige“ Fehler sei jetzt behoben. „Wir hatten ein großes Problem mit ChatGPT aufgrund eines Fehlers in einer Open-Source-Bibliothek, für die ein Fix veröffentlicht wurde und wir gerade die Validierung abgeschlossen haben. Ein kleiner Prozentsatz der Benutzer konnte die Chat-Verlaufsadressen anderer Benutzer sehen“, sagte Altmann.

Die Auswirkungen von Chatbots, die sich an Benutzereingaben erinnern und daraus lernen, können weitreichend sein: Stellen Sie sich vor, Sie arbeiten an einer internen Präsentation mit neuen Geschäftsdaten, die ein Unternehmensproblem aufdecken, das auf einer Vorstandssitzung diskutiert wird. Die Offenlegung solcher vertraulicher Informationen kann den Aktienkurs, die Verbrauchereinstellung und das Kundenvertrauen untergraben. Schlimmer noch, die Absetzung eines Rechtspunkts von der Tagesordnung könnte das Unternehmen einer echten Haftung aussetzen. Aber könnte eines dieser Dinge passieren, nur weil der Chatbot etwas gemeinsam hat?

Dieses Konzept wurde im Februar vom Forschungsunternehmen Cyberhaven untersucht und konzentrierte sich darauf, wie OpenAI die Inhalte, die Menschen in ChatGPT eingeben, als Trainingsdaten verwenden kann, um seine Technologie zu verbessern, und das Ergebnis ist dem, was präsentiert wurde, sehr ähnlich. Cyberhaven behauptete, dass vertrauliche Daten, die in ChatGPT eingegeben wurden, an Dritte weitergegeben werden könnten, wenn diese bestimmte Fragen an ChatGPT stellen, basierend auf Informationen, die der CEO zur Verfügung gestellt hat.

ChatGPT speichert keine Benutzereingaben, oder?

Siehe auch  Google bereitet sich darauf vor, den Play Store zu „reparieren“ und wird Apps ausblenden, die nicht aktualisiert wurden – Android

Das britische National Cyber ​​​​Security Centre (NCSC) teilte im März weitere Informationen zu diesem Problem mit und stellte fest, dass ChatGPT und andere große Sprachmodelle (LLM) derzeit nicht automatisch Abfrageinformationen zu Formularen hinzufügen, damit andere sie sehen können. Das heißt, die Aufnahme von Informationen in eine Abfrage impliziert nicht, dass diese potenziell privaten Daten in das LLM aufgenommen werden. „Die Abfrage ist jedoch für die Organisation sichtbar, die das LLM bereitstellt (im Fall von ChatGPT für OpenAI)“, schrieb er.

„Diese Abfragen werden gespeichert und werden mit ziemlicher Sicherheit irgendwann zur Entwicklung eines LLM-Modells oder -Dienstes verwendet. Dies könnte bedeuten, dass der LLM-Anbieter (oder seine Partner/Auftragnehmer) die Abfragen lesen und sie irgendwie in zukünftige Versionen integrieren kann.“ Ein weiteres Risiko, das wächst, da immer mehr Organisationen ein LLM erstellen und verwenden, besteht darin, dass im Internet gespeicherte Abfragen gehackt, durchgesickert oder versehentlich der Öffentlichkeit zugänglich gemacht werden könnten, schrieb das NCSC. Insgesamt gibt es echte Bedenken hinsichtlich der Eingabe und Verwendung sensibler Geschäftsdaten in ChatGPT, obwohl die Risiken wahrscheinlich weniger weit verbreitet sind, als einige Schlagzeilen vermuten lassen.

Mögliche Risiken bei der Eingabe sensibler Daten in ChatGPT

LLM zeigt ein aufkommendes Verhalten, das als Lernen im Kontext bezeichnet wird. Wenn das Modell während einer Sitzung Daten empfängt, kann es angepasst werden, um Aufgaben basierend auf dem Kontext in diesen Daten auszuführen. Vielleicht ist dies das Phänomen, auf das sich Menschen beziehen, wenn sie sich Sorgen über Informationslecks machen. Informationen aus der Sitzung eines Benutzers können jedoch nicht an die eines anderen Benutzers weitergegeben werden“, sagt Andy Patel, Senior Researcher bei WithSecure, gegenüber dem CSO. „Eine weitere Sorge besteht darin, dass Eingabeaufforderungen, die in die ChatGPT-Schnittstelle eingegeben werden, gesammelt und in zukünftigen Trainingsdaten verwendet werden. .“

Während es sich lohnt, sich Sorgen darüber zu machen, dass Chatbots sensible Informationen aufnehmen und dann wieder zusammensetzen, muss ein neues Modell trainiert werden, um diese Daten zu integrieren, sagt Patel. LLM-Training ist ein teures und zeitaufwändiges Verfahren, und er wäre überrascht, wenn in naher Zukunft ein Modell mit den von ChatGPT gesammelten Daten erstellt würde. „Wenn schließlich ein neues Modell generiert wird, das von ChatGPT gesammelte Warnungen enthält, konzentrieren sich unsere Bedenken auf heuristische Angriffe von Mitgliedern. Diese Angriffe können Kreditkartennummern oder persönliche Informationen preisgeben, die in den Trainingsdaten enthalten sind. Heuristische Angriffe von Mitgliedern wurden jedoch nicht bewiesen.“ ChatGPT LLM und andere ähnliche Systeme“. Dies deutet darauf hin, dass zukünftige Modelle wahrscheinlich nicht anfällig für heuristische Angriffe von Mitgliedern sind, obwohl Patel anerkennt, dass die Datenbank mit aufgezeichneten Nachrichten gehackt oder durchgesickert sein könnte.

Siehe auch  Samsungs Expert RAW wurde für das Galaxy S20 Ultra und früher verschoben

Links von Drittanbietern zu künstlicher Intelligenz können Daten offenlegen

Probleme treten eher bei Drittanbietern auf, die ihre Datenschutzrichtlinien nicht ausdrücklich angeben, sodass ihre Verwendung mit sicheren Tools und Plattformen ansonsten private Daten gefährden könnte, sagt Wicus Ross, Senior Security Researcher bei Orange Cyberdefense. „SaaS-Plattformen wie Slack und Microsoft Teams haben klare Daten- und Verarbeitungsgrenzen und ein geringes Risiko, Daten an Dritte weiterzugeben. Diese klaren Linien können jedoch schnell verschwimmen, wenn Dienste mit Add-Ons oder Bots von Drittanbietern erweitert werden, mit denen sie interagieren müssen Benutzer, egal was. Ob es mit KI verbunden ist oder nicht.“ In Ermangelung einer klaren ausdrücklichen Erklärung des Drittverarbeiters, die bestätigt, dass die Informationen nicht weitergegeben werden, muss man davon ausgehen, dass sie nicht mehr privat sind.“

Zusätzlich zu sensiblen Daten, die von normalen Benutzern geteilt werden, müssen sich Unternehmen auch vor Punktinjektionsangriffen bewusst sein, die frühere Anweisungen von Entwicklern durch Feinabstimmung offenlegen oder das Tool dazu bringen können, vorprogrammierte Anweisungen zu ignorieren, sagt Neil Thacker, CISO von Netskope An EMEA, an CSO Neil Thacker. Jüngste Beispiele sind Twitter-Cheats, die das Verhalten von Bots verändern, und Probleme mit Bing Chat, bei denen Ermittler einen Weg gefunden haben, ChatGPT dazu zu bringen, frühere Anweisungen zu enthüllen, die wahrscheinlich von Microsoft geschrieben wurden und versteckt werden sollten.

Kontrollieren Sie, welche Daten an ChatGPT gesendet werden

Sensible Daten machen derzeit 11 % dessen aus, was Mitarbeiter in ChatGPT eingeben, und das durchschnittliche Unternehmen gibt laut Cyberhaven hunderte Male pro Woche sensible Daten an ChatGPT weiter. „ChatGPT bewegt sich vom Hype in die reale Welt, und Organisationen testen eine praktische Implementierung in ihrem gesamten Unternehmen, um sich ihren anderen ML/KI-basierten Tools anzuschließen, aber Vorsicht ist geboten, insbesondere wenn es um den Austausch vertraulicher Informationen geht.“ sagt Thacker. Sie müssen Aspekte wie das Eigentum an den Daten und die potenziellen Auswirkungen berücksichtigen, wenn die aufnehmende Organisation von einer Datenschutzverletzung betroffen ist. Als einfache Übung sollten Informationssicherheitsexperten zumindest in der Lage sein, die Datenkategorie zu identifizieren, auf die im Falle einer Verletzung dieser Dienste zugegriffen werden kann.

Siehe auch  WhatsApp erhält eine neue Funktion, die die Art und Weise ändern soll, wie Benutzer die App verwenden. Finden Sie heraus, was es Neues gibt - Metro World News Brasil

Letztendlich liegt es in der Verantwortung der Unternehmen, sicherzustellen, dass ihre Benutzer genau wissen, welche Informationen an ChatGPT weitergegeben werden sollen und welche nicht. Organisationen sollten sehr vorsichtig mit den Daten umgehen, die sie in Bewerbungen angeben, sagt das NCSC: „Sie sollten sicherstellen, dass diejenigen, die sich für ein LLM versuchen möchten, dies tun können, aber auf eine Weise, die die Daten der Organisation nicht gefährdet .

Arbeiter vor möglichen Gefahren warnen

Cyberhaven warnte jedoch davor, die Daten einzuschränken und zu kontrollieren, die Mitarbeiter an ChatGPT senden. „Wenn Mitarbeiter Unternehmensdaten in ChatGPT eingeben, laden sie keine Datei hoch, sie kopieren den Inhalt einfach und fügen ihn in ihren Webbrowser ein. Viele Sicherheitsprodukte sind darauf ausgelegt, Dateien (die als vertraulich gekennzeichnet sind) vor dem Hochladen zu schützen Inhalt wird aus der Datei kopiert, sie können ihn nicht finden“, beharrte er. Darüber hinaus enthalten Unternehmensdaten, die in ChatGPT eingehen, oft kein erkennbares Muster, nach dem Sicherheitstools wie eine Kreditkarten- oder Sozialversicherungsnummer suchen, sagte Cyberhaven. „Ohne mehr über ihren Kontext zu wissen, können vorhandene Sicherheitstools nicht zwischen jemandem, der ein Cafeteria-Menü aufruft, und den Fusions- und Übernahmeplänen eines Unternehmens unterscheiden.“

Um die Sichtbarkeit zu verbessern, sollten Unternehmen Richtlinien für Secure Web Gateways (SWG) implementieren, um die Verwendung von KI-Tools einzuschränken, und können auch Richtlinien zur Verhinderung von Datenverlust (DLP) implementieren, um zu erkennen, welche Daten an diese Tools gesendet werden, bemerkt Thacker. Organisationen sollten ihre Informationsschutzrichtlinien aktualisieren, um sicherzustellen, dass die Arten von Anwendungen, die akzeptable Handhaber sensibler Daten sind, gut dokumentiert sind, fordert Michael Covington, Vice President of Portfolio Strategy bei Jamf. „Die Kontrolle dieses Informationsflusses beginnt mit einer gut dokumentierten und fundierten Richtlinie“, sagt er. Darüber hinaus müssen Unternehmen untersuchen, wie sie diese neuen Technologien nutzen können, um ihr Geschäft auf durchdachte Weise zu verbessern. Verlassen Sie diese Dienste nicht aus Angst und Unsicherheit, sondern nehmen Sie sich die Zeit, damit die Mitarbeiter neue Tools mit Potenzial erkunden können, damit Sie die Risiken frühzeitig verstehen und sicherstellen können, dass Sie bei den ersten Endbenutzern über die richtigen Schutzmaßnahmen verfügen die Dienste nutzen möchten. Werkzeug „.