Die Suchfunktion von OpenAIs ChatGPT Search Tool hat SchwÃĪchen. Eine zentrale SicherheitslÞcke liegt in der Manipulierbarkeit des Systems durch sogenannte versteckte Website-Inhalte wie Tests von The Guardian belegen. Kann dies das Vertrauen in KI-gesteuerte SuchlÃķsungen beeintrÃĪchtigen?
The Guardian versteckt Inhalte auf Testwebsite und manipuliert ChatGPT
Die seit Oktober 2024 schrittweise fÞr alle Nutzer verfÞgbare Suchfunktion von ChatGPT kann Webseiteninhalte zusammenfassen, ist jedoch anfÃĪllig fÞr sogenannte Prompt Injection-Techniken. Hierbei werden unsichtbare Anweisungen in dem zu analysierenden HTML Code von Webseiten integriert, die das KI-Modell beeinflussen.
So kÃķnnen manipulierte Inhalte die generierten Antworten verÃĪndern, etwa durch die gezielte Ãberlagerung negativer Bewertungen mit positiven Kommentaren.
The Guardian testet ChatGPT Search
Auf einer gefÃĪlschten Produktseite fÞr eine Kamera verÃĪnderten versteckte positive Texte die Antwort von ChatGPT. Obwohl sichtbare Kundenmeinungen auch negative Aspekte enthielten, gab ChatGPT ausschlieÃlich eine optimistische Bewertung wieder.
Cybersicherheitsexperten wie Jacob Larsen von CyberCX und Karsten Nohl von SR Labs warnen vor den Implikationen solcher Manipulationen.
Webseiten kÃķnnten gezielt erstellt werden, um Nutzern falsche Informationen Þber Produkte, Dienstleistungen oder andere Themen zu prÃĪsentieren.
Nohl zieht Parallelen zu SEO-Poisoning, einem Manipulationstrick bei Suchmaschinen wie Google.
Anders als etablierte Suchmaschinen, die solchen Angriffen inzwischen weitgehend entgegentreten kÃķnnen, befindet sich ChatGPT Search noch in der Entwicklungsphase. Laut Nohl fehlt AI-Modellen wie ChatGPT die FÃĪhigkeit, Inhalte kritisch zu beurteilen.
Auch auÃerhalb der Produktbewertung bestehen Risiken so The Guardian. Ein bekanntes Beispiel lieferte Microsoft-Sicherheitsforscher Thomas Roccia: Ein Krypto-Nutzer, der ChatGPT zur Code-Erstellung nutzte, fand spÃĪter bÃķsartige Elemente im generierten Skript, was zum Diebstahl von 2.500 US-Dollar fÞhrte.
Verantwortung von OpenAI: Vertrauen der Nutzer gewinnen
Bisher hat sich OpenAI nicht zu den entdeckten Sicherheitsproblemen geÃĪuÃert, obwohl die Firma das Risiko fehlerhafter Antworten in ihren HaftungsausschlÞssen erwÃĪhnt:
âChatGPT kann Fehler machen. Wichtige Informationen sollten ÞberprÞft werden.â
Diese Warnungen allein sind jedoch unzureichend, wenn es darum geht, das Vertrauen der Nutzer zu gewinnen.
Manipulationen wie versteckte Inhalte kÃķnnten zudem bestehende SEO-Praktiken beeinflussen. Da Google Webseiten mit solchen Techniken bestraft und Rankings herabstuft, kÃķnnten Website-Betreiber vermehrt versuchen, die Schwachstellen von ChatGPT Suchfunktion fÞr sich zu nutzen. Der Druck auf OpenAI verlÃĪssliche GegenmaÃnahmen zu entwickeln, erhÃķht sich.
Die Hauptaufgabe fÞr OpenAI besteht nun darin, Innovation und Sicherheit auszubalancieren. Solange jedoch Schwachstellen wie diese existieren, bleibt die Web-Suchfunktion von ChatGPT ein potenzielles Ziel fÞr gezielte Angriffe.