Manipulierte Antworten

Sylvester Tremmel | Artikel in der c’t 10/2023 S. 26 

 

Fremdgesteuert.

Wie Prompt Injections KI-Suchmaschinen korrumpieren können.

Hier geht es zu dem Artikel in der c’t

Aus der c’t zitiert:

Sprachmodelle, die Suchergebnisse paraphrasieren, sind komplexe Rechensysteme, die mit unsicheren Inputs arbeiten. Einfach zu hoffen, dass dabei schon alles gut gehen wird, ist naiv. Betrüger könnten mit Prompt Injections KIs unbemerkt zu beliebigen Aussagen bewegen.

  • Sprachmodelle, die externe Inhalte interpretieren, können mit manipulierten Eingaben zu unerwünschten Antworten gezwungen werden.

  • Immer mehr Nutzer erhalten Zugang zu potenziell anfälligen Systemen.

  • Ob und wie man sich vor Prompt Injection schützen kann, ist Gegenstand aktueller Forschung.