Close Menu
    Was ist angesagt

    Das Rätsel wird gelüftet: Wer ist Joy Millward, die Frau hinter Banksy?

    December 6, 2025

    Maleficent 3 – Rückkehr: Joachim Rønning antwortet: „Das ist eine gute Frage“

    December 1, 2025

    Katniss ist mit President Snow in den Hungerspielen verwandt – Theorie erklärt

    November 30, 2025
    Facebook X (Twitter) Instagram
    zobuzz.de
    • Lebensstil
    • Nachrichten
    • Technik
    • Berühmtheit
    • Gesundheit
    • Wie zu
    Facebook X (Twitter) LinkedIn
    zobuzz.de
    Home » Splunk fordert australische Organisationen auf, sich LLMs zu sichern
    Technik

    Splunk fordert australische Organisationen auf, sich LLMs zu sichern

    zobuzz.deBy zobuzz.deOctober 4, 2024Updated:October 4, 2024No Comments6 Mins Read2 Views
    Aktie Facebook Twitter LinkedIn
    splunk
    Aktie
    Facebook Twitter LinkedIn

    Zu den größten Gefahren, die von LLMs ausgehen, zählen die sofortige Einschleusung und der Datenverlust, sie können jedoch durch den Einsatz vorhandener Technologien zur Sicherheitsprotokollierung eingedämmt werden splunk.

    Das SURGe-Team von Splunk hat australischen Organisationen versichert, dass die Sicherung großer KI-Sprachmodelle gegen gängige Bedrohungen wie Prompt-Injection-Angriffe mithilfe vorhandener Sicherheitstools möglich sei. Es können jedoch Sicherheitslücken entstehen, wenn Organisationen grundlegende Sicherheitspraktiken nicht umsetzen.

    Shannon Davis, ein in Melbourne ansässiger leitender Sicherheitsstratege bei Splunk SURGe, sagte gegenüber TechRepublic, dass in Australien in den letzten Monaten ein zunehmendes Sicherheitsbewusstsein in Bezug auf LLMs zu beobachten sei. Er beschrieb das letzte Jahr als den „Wilden Westen“, wo viele überstürzt mit LLMs experimentierten, ohne der Sicherheit Priorität einzuräumen.

    Splunks eigene Untersuchungen zu solchen Schwachstellen nutzten die „ Top 10 für große Sprachmodelle “ des Open Worldwide Application Security Project als Rahmen. Das Forschungsteam fand heraus, dass Unternehmen viele Sicherheitsrisiken durch die Nutzung vorhandener Cybersicherheitspraktiken und -tools eindämmen können.

    Die größten Sicherheitsrisiken für große Sprachmodelle

    Im OWASP-Bericht hat das Forschungsteam drei Schwachstellen identifiziert, die im Jahr 2024 unbedingt behoben werden müssen.

    Prompt-Injection-Angriffe

    OWASP definiert Prompt Injection als eine Sicherheitslücke, die auftritt, wenn ein Angreifer ein LLM durch manipulierte Eingaben manipuliert.

    Weltweit gibt es bereits Fälle, in denen LLMs aufgrund manipulierter Eingabeaufforderungen fehlerhafte Ergebnisse lieferten. So ließ sich ein LLM dazu überreden, jemandem ein Auto für nur einen US-Dollar zu verkaufen , während ein Chatbot von Air Canada die Trauerrichtlinien des Unternehmens falsch zitierte .

    Davis sagte, dass Hacker oder andere, die „die LLM-Tools dazu bringen, Dinge zu tun, für die sie nicht bestimmt sind“, ein wesentliches Risiko für den Markt seien.

    „Die großen Player errichten viele Schutzwälle um ihre Tools, aber es gibt immer noch viele Möglichkeiten, sie dazu zu bringen, Dinge zu tun, die diese Schutzwälle verhindern sollen“, fügte er hinzu.

    Weitergabe privater Informationen

    Mitarbeiter könnten Daten in Tools eingeben, die sich möglicherweise in Privatbesitz befinden (oft in Offshore-Gebieten), was zum Abfluss geistigen Eigentums und privater Informationen führen kann.

    Das regionale Technologieunternehmen Samsung erlebte einen der aufsehenerregendsten Fälle von privaten Informationslecks, als Ingenieure dabei erwischt wurden, wie sie vertrauliche Daten in ChatGPT einfügten . Es besteht jedoch auch das Risiko, dass vertrauliche und private Daten in Trainingsdatensätze aufgenommen und möglicherweise durchgesickert werden.

    „Ein weiterer großer Problembereich besteht darin, dass PII-Daten entweder in Trainingsdatensätze aufgenommen und dann weitergegeben werden oder dass möglicherweise sogar Personen PII-Daten oder vertrauliche Unternehmensdaten an diese verschiedenen Tools übermitteln, ohne sich über die Folgen im Klaren zu sein“, betonte Davis.

    Übermäßige Abhängigkeit von LLMs

    Übermäßiges Vertrauen liegt vor, wenn sich eine Person oder Organisation auf Informationen aus einem LLM verlässt, obwohl die Ergebnisse fehlerhaft, unangemessen oder unsicher sein können.

    In Australien kam es kürzlich zu einem Fall übermäßiger Abhängigkeit von LLMs, als ein Mitarbeiter des Kinderschutzes ChatGPT zur Erstellung eines Berichts verwendete, der an ein Gericht in Victoria geschickt wurde. Während die Hinzufügung sensibler Informationen problematisch war, spielte der von der KI erstellte Bericht auch die Risiken herunter, denen ein in den Fall verwickeltes Kind ausgesetzt war .

    Davis erklärte, dass übermäßige Abhängigkeit ein drittes Hauptrisiko sei, das Unternehmen im Auge behalten müssten.

    „Dies ist ein Schulungselement für Benutzer und soll sicherstellen, dass die Leute verstehen, dass man diesen Tools nicht blind vertrauen sollte“, sagte er.

    Weitere LLM-Sicherheitsrisiken, auf die Sie achten sollten

    Andere Risiken in den OWASP Top 10 erfordern möglicherweise keine unmittelbare Aufmerksamkeit. Davis sagte jedoch, dass sich Organisationen dieser potenziellen Risiken bewusst sein sollten – insbesondere in Bereichen wie übermäßiges Agenturrisiko, Modelldiebstahl und Trainingsdatenvergiftung.

    Übermäßige Handlungsfreiheit

    Übermäßige Handlungsfreiheit bezieht sich auf schädliche Aktionen, die als Reaktion auf unerwartete oder mehrdeutige Ausgaben eines LLM ausgeführt werden, unabhängig davon, was die Fehlfunktion des LLM verursacht. Dies könnte möglicherweise darauf zurückzuführen sein, dass externe Akteure auf LLM-Tools zugreifen und über die API mit Modellausgaben interagieren.

    „Ich denke, die Leute sind konservativ, aber ich mache mir trotzdem Sorgen, dass wir angesichts der Macht, die diese Tools potenziell haben, etwas sehen könnten … das alle anderen darauf aufmerksam macht, was möglicherweise passieren könnte“, sagte Davis.

    LLM-Modelldiebstahl

    Davis sagte, Untersuchungen deuteten darauf hin, dass ein Modell durch Schlussfolgerung gestohlen werden könnte: indem man eine große Anzahl von Eingabeaufforderungen an das Modell sendet, verschiedene Antworten erhält und anschließend die Komponenten des Modells versteht.

    „Modelldiebstahl ist etwas, das ich mir aufgrund der enormen Kosten für das Modelltraining in Zukunft vorstellen kann“, sagte Davis. „Es wurden zahlreiche Artikel zum Thema Modelldiebstahl veröffentlicht, aber es ist eine Bedrohung, deren Nachweis viel Zeit in Anspruch nehmen würde.“

    Trainingsdatenvergiftung

    Unternehmen sind sich heute stärker darüber im Klaren, dass die Daten, die sie für KI-Modelle verwenden, die Qualität des Modells bestimmen. Darüber hinaus sind sie sich auch stärker darüber im Klaren, dass eine absichtliche Datenvergiftung die Ergebnisse beeinträchtigen könnte. Davis sagte, dass bestimmte Dateien innerhalb von Modellen, sogenannte Pickle Funnels, im Falle einer Vergiftung unbeabsichtigte Ergebnisse für die Benutzer des Modells verursachen würden.

    „Ich denke, die Leute müssen einfach vorsichtig sein, welche Daten sie verwenden“, warnte er. „Wenn sie also eine Datenquelle finden, einen Datensatz, mit dem sie ihr Modell trainieren können, müssen sie wissen, dass die Daten gut und sauber sind und keine Dinge enthalten, die sie potenziell schädlichen Einflüssen aussetzen könnten.“

    Mehr lesen: Telegram-QR-Code für das Telegram Web scannen – QR-Code scannen (2024)

    So gehen Sie mit den üblichen Sicherheitsrisiken für LLMs um

    Das SURGe-Forschungsteam von Splunk hat herausgefunden, dass die einfachste Möglichkeit zum Sichern von LLMs mit dem vorhandenen Splunk-Toolset darin besteht, sich auf das Front-End des Modells zu konzentrieren, anstatt ein LLM direkt zu sichern.

    Die Verwendung einer Standardprotokollierung ähnlich wie bei anderen Anwendungen könnte das Problem der sofortigen Injektion, der unsicheren Ausgabeverarbeitung, der Dienstverweigerung von Modellen, der Offenlegung vertraulicher Informationen und des Modelldiebstahls lösen.

    „Wir haben festgestellt, dass wir die Eingabeaufforderungen protokollieren können, die Benutzer in das LLM eingeben, und dann die Antworten, die aus dem LLM kommen. Allein diese beiden Daten haben uns praktisch fünf der OWASP Top 10 beschert“, erklärte Davis. „Wenn der LLM-Entwickler sicherstellt, dass diese Eingabeaufforderungen und Antworten protokolliert werden, und Splunk eine einfache Möglichkeit bietet, diese Daten abzurufen, können wir eine beliebige Anzahl unserer Abfragen oder Erkennungen darauf ausführen.“

    Davis empfiehlt Organisationen, für LLMs und KI-Anwendungen einen ähnlichen sicherheitsorientierten Ansatz zu verfolgen, der in der Vergangenheit zum Schutz von Webanwendungen verwendet wurde.

    „Wir haben ein Sprichwort, dass man 99,99 % seines Schutzes erhält, wenn man sein Cyber-Gemüse isst – oder die Grundlagen beherrscht“, bemerkte er. „Und die Leute sollten sich wirklich zuerst auf diese Bereiche konzentrieren. Dasselbe gilt auch für LLMs.“

    Follow on Facebook Follow on X (Twitter) Follow on LinkedIn
    Share. Facebook Twitter LinkedIn

    Related Posts

    Krea AI: Bildgenerierung, Upscaler, Enhancer

    October 25, 2025

    Worldwidesciencestories.com – Alles, was du über die Plattform wissen musst

    October 17, 2025

    Janitor AI – Alles, was du über den smarten KI-Assistenten wissen musst

    September 10, 2025
    Top Beiträge

    Alles über das Tesla Pi Phone: Erscheinungsdatum, Preis und mehr!

    July 14, 20252,942 Views

    Natalie Kuckenburg Wiki, Alter, Freund, Größe, Nationalität, Eltern und mehr

    February 6, 20241,532 Views

    Wer ist Roel Navarro? Was ist mit Pavia bei „Mayans MC“ passiert?

    February 15, 20241,151 Views

    Kyle Baugher führt ein Privatleben und macht Kelly Reilly zu einer glücklichen Ehefrau

    February 20, 2024666 Views
    Stay In Touch
    • Facebook
    • Twitter
    • LinkedIn

    Recent Posts

    • Das Rätsel wird gelüftet: Wer ist Joy Millward, die Frau hinter Banksy?
    • Maleficent 3 – Rückkehr: Joachim Rønning antwortet: „Das ist eine gute Frage“
    • Katniss ist mit President Snow in den Hungerspielen verwandt – Theorie erklärt
    • Das große Roseanne-Problem in der 7. Staffel von „The Conners“ hätte durch eine kleine Änderung gelöst werden können.
    • Wie Sam Altman ein Nettovermögen von 200 Millionen Dollar erreichte

    Recent Comments

    No comments to show.
    Facebook X (Twitter) LinkedIn
    • Kontaktiere uns
    • Über uns
    • Datenschutzrichtlinie
    Urheberrechte © 2024 Zobuzz Alle Rechte vorbehalten.

    Type above and press Enter to search. Press Esc to cancel.