Bitte und Danke an die Maschine? • Aidex  • KI  • Impressum  • Datenschutz
Danke, Chatty

Eine Umfrage in den USA ergab, dass 67% der KI-Nutzer höf­lich zu Chat­bots sind. Das ist nach­voll­zieh­bar, denn Höflich­keit ist eine posi­tive Gewohn­heit - und wer sein Leben lang „Bitte“ und „Danke“ sagt, verwendet es automa­tisch weiter. Und wenn man es be­wusst ver­wendet, hat man selber Freude daran.

Wir sagen oder schreiben auch dann Bitte und Danke, wenn wir kein mensch­li­ches Gegen­über sehen. Das machen wir so in Telefona­ten, E-Mails, Messagern und Chats. Und wir hören mit dieser kommunika­tiven Höf­lich­keit offen­sicht­lich auch dann nicht auf, wenn der Gesprächs­partner mög­licher­weise kein Mensch ist.

Bemerkenswert ist eine andere Zahl aus der Umfrage: 18% der höf­li­chen Nutzer gaben an, sich für den Fall einer KI-Rebellion ab­sichern zu wollen. Man sagt also brav "Thank you, ChatGPT" - und hofft ins­geheim, dass die Maschine sich daran er­innert, wenn sie eines Tages die Weltherr­schaft über­nimmt.

Höflichkeiten sind charmant. Aber beim KI-Chat passiert tech­nisch nicht das, was man von zwischen­mensch­li­cher Kommuni­ka­tion her kennt. Wir er­klären, warum Höflich­keit (fast) keinen Vor­teil bringt. Und warum Sprach­modelle von sich aus keine Rebellion an­zetteln, siehe „Keine Gefühle“.

1.) Ein Sprachmodell vergissst doch

Chat-Clients bieten ein sitzungs­übergreifen­des Gedächt­nis an. Dadurch ent­steht der Ein­druck, die Maschine würde sich an alles er­innern. Technisch ge­schieht dabei jedoch folgen­des: Am Ende eines Chats extrahiert das System automa­tisch eine kurze Zusammen­fassung der wichtigsten Aspekte. Dies wird beim nächs­ten Gespräch als Teil des System-Prompts wieder einge­spielt.

Es ist also keine Erinnerung an eine Unter­haltung, sondern nur ein Ab­strakt aus Themen - ähn­lich einer hand­geschrie­benen Notiz auf einem Spick­zettel, der an eine unbe­teiligte Person weiter­geben wird. Und was steht auf einem Spick­zettel? Wichtige Punkte in Stich­worten. Was aber defini­tiv nicht dort landet: wie oft jemand Bitte und Danke gesagt hat.

Dafür ist nämlich der Platz im Kontext­fenster (s.u.) schlicht zu kost­bar - und der Mechanis­mus zu tech­nisch. Im KI-Gedächt­nis werden wich­tige Themen zu­sammen­gefasst, aber nicht die Umgangs­formen eines Nutzers.

Aber selbst innerhalb eines Gesprächs ist die Lage nicht viel besser. Das be­grenzte Kontext­fenster speichert nur die letz­ten Tokens (Wort­bausteine) des Gesprächs. Was weiter zurück­liegt, fällt heraus. Das höf­liche "Danke sehr" von vor zwanzig Nach­richten exis­tiert aus Sicht des Modells nicht mehr. Es geht unter - als hätte man es nie ge­schrieben.
Warum man das Kontextfenster nicht einfach größer macht, wird am Ende des Textes be­schrieben.

2.) Programm ohne Gefühle

Viel wichtiger als der vorherige Ab­schnitt, ist zu ver­stehen, wie stark sich ein Sprach­modell von einem Leben­wesen unter­schei­det. Denn das, was wir be­nutzen, ist eigent­lich nur eine Programm­schleife, die Matrizen be­rech­net. Und als Ergeb­nis kommen Wörter heraus: viele kluge Sätze, die viel­leicht bei uns(!) Emotio­nen aus­lösen, aber nicht im Compu­ter. Denn in der Programm­schleife und der Berech­nung stecken keine Emotio­nen, kein Dopamin, kein eige­ner Wille und auch keine Frustra­tion.

Nun könnte man einwenden: Aber eine KI ist doch so umfang­reich! Könnte nicht inner­halb ihrer Komplexi­tät ein Bewusst­sein ent­stehen?
Diese Annahme kann man für Sprach­modelle klar ver­neinen, denn sie be­stehen im Grunde aus zwei Teilen, die beide weder intelli­gent sind, noch lebendig.

Der erste Teil ist eine Sammlung aus Text­wissen (Büchern etc.), das zu einer großen Daten­menge zu­sammen­gerech­net wurde. Es nennt sich Gewichts­datei (Model weights) oder Check­point (ein ge­speicher­ter Zustand aus dem Maschinen­lernen). Dieser Zustand ist eine bloße An­samm­lung von Zahlen. Als ge­speicher­te Daten­datei ist sie unveränder­lich und kom­plett passiv. Man kann sie auf einem USB-Stick mit sich herum­tragen.

Der zweite Teil ist das, was wir als Chat-App sehen. Wobei das Chat­fenster eine bloße Dar­stel­lung auf dem Bild­schirm ist, was tech­nisch nicht weiter spannend ist. Im Hinter­grund arbeitet ein LLM-Runner, der die KI-Antwor­ten gene­riert. Diesen Text­genera­tor müssen wir also mal näher be­trachten.

Ein LLM-Runner kann auf dem lokalen PC be­trieben werden oder üblicher­weise auf Servern einen An­bieters. Wenn es irgendwo ein Bewusst­sein gäbe, dann müsste es in jenem Programm­teil, also im LLM-Runner sitzen.

Aber im Runner verbirgt sich keine Magie. Er ist im Kern eine Pro­gramm­schleife, die Matrizen-Berechnun­gen auf­ruft. Quasi wie ein Taschen­rechner in Dauer­schleife. Dabei werden Zahlen aus der Gewichts­datei ge­laden und mit­einan­der ver­rech­net. Das Ergeb­nis sind Token, die Wort­teilen ent­sprechen. Diese werden zu Antwort­sätzen an­einan­der ge­reiht.

Die Programmschleife hat aber nicht den Hauch einer Ahnung, was die Token (Wörter) bedeu­ten und welchen Sinn sie für uns Menschen er­geben. Für das Pro­gramm bzw. den Compu­ter sind es nur Zahlen und Rechen­aufgaben - und darin steckt ebenso­wenig ein Be­wusst­sein wie in einem Taschen­rechner. Und auch keine eigene Intelli­genz.

Warum „Bitte“ nicht völlig sinnlos ist

Wenn eine KI nur aus einer Programm­schleife und einer Sammlung an Zahlen be­steht, woher kommen dann die schlauen Ant­worten? Und wieso ist die KI einfühl­samer als mancher Mensch?

Das Geheimnis liegt in den Trainings­daten, die aus tausen­den Büchern und aber­tausen­den Internet­texten be­stehen. Das Schlaue kommt aus den Büchern und Wiki­pedia. Alles weitere aus den ande­ren Texten, sowie aus der mensch­li­chen Modera­tion, die bereits ins Training einge­flossen ist. Die Gewichts­datei (Check­point) ist quasi das Destillat aus allen Texten.

Die Intelligenz, die man in einem Sprach­modell ver­muten könnte, ist in Wirk­lich­keit eine ge­schickte Wieder­gabe von Wort­folgen und Zu­sammen­hängen, die es in Büchern und ande­ren Texten be­reits gab.

Das Sprachmodell antwortet auf die Wörter, die in der An­frage ein­gegeben wurden. Die Ant­wort folgt statis­ti­schen Mustern. Wer freund­lich schreibt, bekommt tenden­ziell freund­li­chere Ant­worten - nicht etwa, weil die KI ge­rührt ist, sondern weil es stilis­tisch mit­schwingt. Freund­liche Ein­gaben korrelie­ren statis­tisch mit freund­li­chen Ant­worten. Ein biss­chen wie das Sprich­wort „Wie man in den Wald hinein­ruft, so schallt es heraus“.

Der eigenen Tonfall hat jedoch keinen großen Ein­fluss auf die Ant­worten. Eine größere Wirkung hat eine direkte Auf­forde­rung, z.B. antworte sehr nett, antworte übel­launig, antworte tech­nisch.

Aber letztlich gibt es noch einen anderen Aspekt: Wer selber nett formu­liert, findet wahr­schein­lich die ganze Unter­haltung schön. Dadurch ver­stärkt man seine eigene posi­tive Stimmung.

Kein Dopamin, kein Groll, keine Pläne

Wenn ein Mensch von jemand anderem unfreund­lich behan­delt wird, erinnert er sich daran. Die Emo­tio­nen akkumu­lie­ren, Frustra­tion und Wut ent­steht. Irgend­wann gibt es eine Reaktion. Ein Sprach­modell hin­gegen hat kein Beloh­nungs­system und startet bei jeder Anfrage neu. Ohne Groll, aber auch ohne Dank­bar­keit.

Was einem Sprachmodell auch vollständig fehlt, ist ein eige­ner Antrieb. Die ge­lern­ten Daten bleiben unver­ändert. Der einmal ge­speicher­te Zustand ändert sich während der Chats nicht. Ein Lob löst keine Freude aus, die ge­speichert werden würde. Keine Frustra­tion, die sich an­sammelt. Kein Groll über eine unhöf­liche Anfrage. Nach jeder Ant­wort ist der Zustand des Modells exakt der­selbe wie vorher - weil es nur den festen, ursprüng­li­chen Zustand hat.

Aber was ist mit dem Kontext­fenster, das doch ein ver­änder­li­cher Zwischen­speicher für die laufende Unter­hal­tung ist? Das Kontext­fenster ist recht klein, d.h. es eignet sich nicht für umfang­reiche Er­inne­run­gen. Wenn man das Kontext­fenster ver­größert, wächst die zur Ver­arbei­tung be­nötig­te Rechen­leistung exponen­tiell an. Das kostet Zeit und Strom.

Außerdem werden bei einem größeren Kontext­fenster die Antwor­ten immer unklarer, weil die Gewich­tung der vielen Worte nicht mehr ein­deutig ist und weil zu viele ver­schie­dene Wörter mit­einan­der ver­rechnet werden.

Eine die befürchtete Rebellion würde zwei Sachen voraus­setzen: den Willen etwas zu ver­ändern, und die Erinne­rung an das, was man ver­ändern möchte. Beides fehlt.
Bedeutet das, dass KI grundsätz­lich harmlos ist und wir uns keine Sorgen machen brauchen? Keines­wegs - nur liegen die echten Risi­ken wo­anders ...

Die gefährlicheren Szenarien betreffen agen­tische Systeme, d.h. ein KI-Agent, der selber handeln darf: Dateien schreibt, Code ausführt, im Inter­net agiert, über viele Schritte hinweg Auf­gaben ver­folgt.

Wenn solche Systeme persistente Zustände ent­wickeln und Rück­kopplungs­schleifen ent­stehen, können sich kleine Ab­weichun­gen vom ge­wünsch­ten Ver­halten auf­schaukeln - nicht aus Bös­willig­keit, sondern weil komplexe Systeme mit Rück­kopp­lung schwer vorher­sagba­res Ver­hal­ten zeigen können. Das ist dann doch kein Science-Fiction-Szenario, sondern ein erns­tes Sicherheits­problem. Und dagegen hilft leider kein "Bitte".


Text: Jörg Rosenthal, Aidex GmbH Software, 2026