Künstliche Intelligenz • Aidex  • Kontakt  • Datenschutz  • EN
Investitionen vs. Datenschutz

Mindestens 95% der Konsumenten von KI haben kein Bezahl-Abo. Die KI-Anbie­ter machen hohe Ver­luste. Allein im Jahr 2024 wurden schät­zungs­weise 130 bis 250 Mil­liar­den US-Dollar in KI inves­tiert. Auch zuvor, in jedem Jahr seit 2020, waren es mindes­tens 100 Mrd. Dollar jähr­lich.

Eine spannende Frage ist, wie die KI-Anbie­ter ver­suchen wer­den, mehr Ein­nah­men zu ge­nerie­ren. Im Business-Bereich wird es über steigen­de Produkt-Integra­tio­nen und abge­rech­nete API-Nutzun­gen pas­sie­ren. Bei Privat­nutzern wird man es mit Wer­bung ver­suchen.

Google und Perplexity setzen auf Werbung. Der Perplexi­ty-CEO hat ge­sagt, man wolle Daten sam­meln, um „hyper-perso­nali­sier­te Wer­bung“ an­zu­bie­ten. Dafür müs­sen die An­bieter so viele Infor­matio­nen über jeden Nutzer sam­meln, wie mög­lich. Bezüg­lich Speicher­fristen siehe unten den Absatz „Daten­schutz-Einstel­lun­gen“.

LLM lokal ausführen

Seit 2025 bietet sich fast plötzlich die Möglichkeit, Sprachmodelle auch off­line auf dem eige­nen, norma­len PC aus­zu­füh­ren. Somit kann man eine KI selber be­trei­ben, unab­hängig von einem Anbie­ter im Inter­net. Dadurch be­freit man sich von dem massi­ven Speicher­begehren der KI-Anbie­ter und ist frei von Kompli­ka­tio­nen mit dem Daten­schutz, weil keine Daten über­tra­gen werden.

Die Installation ist erstaun­lich ein­fach, wie unsere kurze Anleitung zum Ein­richten eines lokalen LLM-Runners be­schreibt. Man kann dann ein kompak­tes Sprach­modell passend für den eige­nen Bedarf und pas­send zur eige­nen Hard­ware aus­wählen.

Da handelsübliche PCs nur über mittel­mäßig viel Haupt­speicher ver­fügen und nicht unbe­dingt mit einer riesi­gen Grafik­karte aus­ge­stattet sind, ist es nur mög­lich, quanti­sier­te KI-Modelle zu ver­wen­den. Man muss ehr­lich sagen, dass diese kleine­ren Varian­ten leider nicht beson­ders „schlau“ sind. Bei ech­tem Be­darf müsste man ggf. über einen bes­se­ren Com­puter nach­denken.

Datenschutz-Einstellungen

Zwar wurde in ChatGPT eine Daten­schutz-Einstel­lung nach­gerüs­tet, mit der man der Weiter­verwen­dung der eigenen Ein­gaben zum KI-Trai­ning wider­spre­chen kann. Aller­dings beein­flusst dies nicht die Speiche­rung der Ein­gaben, die der­zeit auf unbe­stimm­te Zeit läuft, siehe rechts.

Einstellungen in ChatGPT: Gehen Sie in Ihrem ChatGPT-Profil auf: „Einstel­lungen“ > „Daten­kontrol­len“, und schal­ten Sie dort die Option aus: „Das Modell für alle ver­bessern“.

In Claude hingegen kann man die Nut­zung zum Trai­ning nicht ab­schal­ten. Unter Einstel­lun­gen > Daten­schutz findet man den Satz: „... verwen­den wir deine Chats und Coding-Sessions, um unse­re KI-Modelle zu trai­nie­ren und zu ver­bes­sern.“

Im August 2025 mussten die Claude-User zu­stim­men, dass die Eingabe­daten 5 Jahre lang ge­speichert werden. Ich vermute, dies gilt für die Zeit nach der Löschung eines Chats.

In ChatGPT gibt es keine be­stimm­te Speicherfrist, d.h. man muss von einer Speiche­rung auf unbe­stimmte Zeit aus­gehen! Auch wenn man das Trai­ning ab­ge­schal­tet hat (s.o.), bleibt ein ge­lösch­ter Chat noch 30 Tage ge­speichert. Doch wegen eines Rechts­streits ist OpenAI derzeit (2025) zur Beweis­sicherung ver­pflich­tet und muss alle "Nutzer­inhalte auf unbe­stimmte Zeit" speichern.

Mir erzählte eine Freundin, dass sie ihren ganzen Lebens­lauf in Chat­GPT kopiert hatte, um sich ein Bewer­bungs-Anschrei­ben auf eine eben­falls hinein­kopierte Stellen­anzeige formu­lieren zu lassen. Das hat gut ge­klappt, sie hat die Stelle sogar be­kom­men. Aber bezüg­lich all ihrer persön­li­chen Daten aus ihrem Lebens­lauf hatte sie sich keine Gedan­ken ge­macht.

Und nun stellen Sie sich mal vor, wie in einer Firma gedanken­los eine Liste mit Mitar­beiter- oder Kunden­daten in eine KI hoch­gela­den würde, ohne dass man weiß, ob und wie diese Daten weiter­verwen­det werden. Das wäre ein Daten­schutz­verstoß: als unbefug­te Weiter­gabe und als Daten­übertra­gung in ein Dritt­land.

Generative KI

Erinnern Sie sich, als früher Schach-Turniere im Fern­sehen über­tragen wur­den? Wer gut Schach spielen kann, gilt als intel­li­gent. In den 1990ern wollte auch IBM zei­gen, dass ihre Com­puter etwas auf dem Kasten haben. 1997 ge­wann „Deep Blue“ gegen den Schach­welt­meister Garri Kasparow.

Doch IBMs Super­computer mit 216 spe­zi­el­len Schach­prozes­soren war nicht intel­li­gent, son­dern hatte „nur“ eine sehr ge­schickte Program­mie­rung (in der Pro­grammier­sprache C ge­schrie­ben). Dies wird heut­zutage als regel­basierte KI oder symbo­li­sche KI be­zeich­net.

Das, was wir heute als „generative KI“ (GenAI) be­zeich­nen, funk­tio­niert nach einem ande­ren Prinzip und hat die Fähig­keit, Inhalte zu er­zeugen, z.B. Texte, Bilder oder Musik. Die Er­geb­nisse kön­nen be­ein­drucken, aber der Begriff „Intel­li­genz“ passt immer noch nicht.

Spätestens seit 2023 machen Sprachmodelle von sich reden, die natür­liche, geschrie­bene Sprache ver­stehen kön­nen und ebenso ant­wor­ten kön­nen: ↗ChatGPT von OpenAI, ↗Claude.ai von Anthropic, Google ↗Gemini und Meta ↗LLaMA. Außer­dem Micro­soft/Bing ↗Copilot, der aller­dings ChatGPT nutzt.

Siehe: ↗KI-Plattformen im Überblick.
Muster erkennen und reproduzieren

Ein Sprachmodell (LLM) basiert auf einem neuro­nalen Netz­werk, das mit riesi­gen Mengen an Text­daten trai­niert wurde, um Muster in der Sprache zu er­ken­nen. Um selber Texte zu ge­nerie­ren, ver­wen­den Sprach­modelle statis­tische Zusam­men­hänge, um vor­her­zusagen, welche Wörter oder Sätze wahr­schein­lich als näch­stes fol­gen werden.

Aber die KI hat kein Bewusst­sein für den Inhalt, den sie pro­du­ziert. GenAI er­zeugt Ant­wor­ten nur auf der Grund­lage von Wahr­schein­lich­keiten, nicht durch echtes Ver­ständ­nis für deren Be­deu­tung. Sprach­modelle können phy­si­sche und logi­sche Prin­zi­pien und Wider­sprüche nicht selber er­ken­nen, son­dern ken­nen dies nur über das Vor­han­den­sein von Sprach­mustern aus den Trai­nings­daten.

Aus diesem Grund bezeichnete die Linguis­tin Emily Bender solche Sprach­modelle als „stochas­tic parrots“ (stochas­ti­sche Papa­gei­en), denn sie plap­pern nur, ohne den Inhalt ihres Plap­perns wirk­lich zu ver­stehen. Siehe dazu: ↗Überprü­fung von Intelli­genz.

2023 stießen die vielen neuen Nutzer zu­nächst auf zahl­reiche unlogi­sche Ant­wor­ten und herbei­fabulier­te Aus­sagen, die ganz offen­sicht­lich falsch waren. Solche Hallu­zina­tio­nen konn­ten ver­ringert wer­den, indem neuen Tech­ni­ken u.a. ehr­liche „Ich weiß es nicht“-Antwor­ten stärker be­lohnen.

Urheberrecht legal umgangen?

Harry Potter wörtlich wiederge­geben: Im Juni 2025 fand eine Studie heraus, dass Metas Sprach­modell Llama 3.1 in der Lage ist, fast 42% des ersten „Harry Potter“-Bands wört­lich zu repro­du­zie­ren. Das stellt eine neue Dimen­sion in der Urheber­rechts-Proble­ma­tik dar, weil bisher davon aus­ge­gan­gen wurde, dass Sprach­modelle die Inhalte ledig­lich abstra­hie­ren und nicht direkt wieder­geben.

Doch solche Wieder­gaben bzw. Rekons­truk­tio­nen aus ge­schütz­ten Werken wer­fen er­heb­liche Zweifel an der bis­heri­gen Argu­men­ta­tion der KI-Anbie­ter auf, sich im Rahmen der US-ameri­kani­schen „Fair Use“-Regeln zu be­wegen.

Ebenfalls im Juni 2025 reichten die Produzen­ten Disney und Uni­ver­sal eine Klage gegen den Bild­genera­tor Mid­journey ein. Sie werfen dem KI-Unter­nehmen vor, massen­haft urheber­recht­lich ge­schützte Werke wie Disney-Figuren oder Uni­versal-Film­charak­tere ver­wen­det zu haben, um die KI zu trainie­ren, ohne eine Lizenz dafür er­wor­ben zu haben. Die KI könne nun auf Nutzer­wunsch Bilder ge­nerie­ren, die be­kann­ten Figuren täu­schend ähn­lich sehen - was die Kläger als Pirate­rie be­zeich­nen. Die Klage ist die erste umfas­sende Aus­einander­set­zung großer Medien­konzerne mit einem KI-Unter­nehmen vor einem US-Bundes­gericht.

Bisher beriefen sich viele KI-Unter­nehmen darauf, dass sie Trainings­daten nur "trans­formativ" nut­zen – also auf eine neue Weise ver­arbei­ten und nicht ein­fach kopieren.

Auch die Tat­sache, dass die meisten KI-Out­puts keine Original­werke direkt repro­du­zie­ren, wurde als Schutz­schild gegen Urheber­rechts­klagen ver­wen­det. Doch dieses Argu­ment bröckelt je mehr Fälle be­kannt wer­den, wo KI längere Sätze oder Bild-Elemente nahe­zu unver­ändert wieder­ge­geben hat.

Bisher begünstigte die juristi­sche Unsicher­heit in den USA die KI-Anbie­ter. Besonders rele­vant wird nun auch der kom­merzielle Charak­ter vieler KI-Ange­bote (Abo-Modelle), was eine „faire“ Nut­zung zum Wohle der Gesell­schaft zusätz­lich in Frage stellt. Die Disney-Klage könnte zu einem Präzedenz­fall werden, der defi­niert, wie weit sich KI-Unter­nehmen bei der Nut­zung von Trainings­daten auf Fair Use be­rufen dürfen.

Sollten Gerichte entscheiden, dass schon das Training mit ge­schütz­ten Inhal­ten eine urheber­recht­liche Ver­let­zung dar­stellt, könnte es die Branche zwingen, nur lizen­zierte Inhalte zu ver­wen­den.

Allerdings sind eben­falls im Juni 2025 mehre­re Buch-Autoren mit ihren Ur­heber­rechts­klagen vor US-Gerich­ten unter­legen. Ein Richter ent­schied, dass beim Trai­ning von Claude mit ge­kauf­ten Gebraucht-Büchern „Fair Use“ gilt, weil die Bücher legal er­wor­ben und digi­tali­siert wur­den. Ein ande­rer Richter ur­teilte, dass kein Nach­weis von Markt- oder Lizenz­schäden durch die Repro­duk­tion durch Llama (Meta) vor­liege.

KI-Bild zeigt einen Kapitän auf einem Dampfschiff
KI-Bild
KI-Bildgenerator: Sie kennen sicher­lich das lange deut­sche Wort „Donau­dampf­schiff­fahrts­gesell­schafts­kapitän“. Es wurde erst­mals 1936 in einem Lied aus Wien be­sun­gen: „Kein Lied war je so schön, als das vom Donau­dampf­schiffahrts­gesell­schafts­kapitän […]“.

Das Bild ist eine KI-erzeugte Visu­ali­sie­rung die­ses Wortes. Auf dem ers­ten Blick ganz hübsch.
Doch auf den zweiten und drit­ten Blick fal­len auf dem Bild sonder­bare Sachen auf. Das Steuer­rad ist nicht in Fahrt­richtung an­ge­bracht. Zudem scheint der Steuer­stand gar nicht zum Haupt­schiff zu ge­hö­ren. Die KI hat wohl eine eigen­artige Vor­stel­lung von einem Steuer­stand. Zudem sind die unte­ren bei­den Decks merk­wür­dig ver­formt. Das Bild ist nicht in sich stimmig.

Eine Erklärung für diese Abnor­mi­tä­ten liegt in der Auf­gaben­stel­lung: „Zeige den Kapi­tän eines Dampf­schif­fs auf einem Fluss.“ Das klingt ein­fach, ist es aber nicht.

Einen Kapi­tän würde man norma­ler­weise im Steuer­haus dar­stel­len. Dann könnte man jedoch nicht er­ken­nen, dass es sich um ein Dampf­schiff han­delt. Und man würde nicht sehen, dass es auf einem Fluss fährt. Um alle An­for­de­run­gen unter einen Hut zu krie­gen, hat sich die KI die uns be­kann­ten Rea­li­tä­ten wohl etwas zu­recht­gebo­gen.

Oder besser gesagt: Dem Bild-Generator war gar nicht „be­wusst“, dass die Kons­truk­tion nicht logisch oder tech­nisch nicht richtig ist. Der Gene­ra­tor hat nur Bild­muster, die er aus sei­nen Trai­nings­daten kennt, so re­kombi­niert, dass alles zu der An­for­de­rung passt.
Rückblick 2022/2023: Eine plappernde KI für alle

Seit Ende 2022 kann jeder am PC oder Smart­phone mit einer KI herum­spielen: Die US-Firma OpenAI hat ihre Künst­liche Intelli­genz „ChatGPT“ am 30.11.2022 als Web­seite der Öffent­lich­keit kosten­los zu­gäng­lich ge­macht. Es ist nur eine An­mel­dung mit Mail-Adresse und (leider) Handy-Nr. er­for­der­lich.

Ich habe es damals sofort aus­pro­biert und war direkt be­geis­tert, dass die Web­seite belie­bige Fragen auch auf deutsch ver­steht und be­ant­wor­tet. Die „geis­tige“ Flexi­bi­li­tät von ChatGPT zeigt sich darin, dass man sich in Sekun­den­schnelle z.B. eine Fantasie-Geschichte nach eige­nen Vor­ga­ben schrei­ben las­sen kann.

Fragt man die KI nach Infor­ma­tionen zu gut doku­men­tier­ten The­men, er­hält man be­ein­druckend gute Ant­wor­ten. Fragt man je­doch nach Infor­ma­tionen, die nicht oder unzu­reichend in den Trainings­daten ent­hal­ten waren, plap­pert die KI irgend­etwas, das mög­licher­weise falsch ist. Davor warnt auch der An­bieter.

Die kostenlos nutzbare ChatGPT Version 3.5 wurde 2023 durch die damals kosten­pflich­tige Ver­sion 4.0 er­gänzt. Der Haupt­unter­schied ist, dass die Ver­sion 4 mit dem Bild­genera­tor DALL·E ge­kop­pelt wurde. Nun kann man, gegen ein monat­li­ches Ent­gelt, auch Bil­der er­zeu­gen las­sen, so wie das oben ge­zeigte Bild.

So wie es beim oben ge­zeigten Bild ein Pro­blem mit komi­schen Unge­nauig­kei­ten gibt, gibt es ein ähn­li­ches Pro­blem auch bei der Text­ausgabe. Von An­fang an war auf­ge­fal­len, dass Chat­GPT kon­fa­bu­liert - sich fehlende Infor­ma­tio­nen herbei-halluzi­niert.

Beim Menschen spricht man von ↗Konfa­bu­lation, wenn jemand ver­sucht mehr Erin­ne­rungen aus sei­nem Ge­dächt­nis ab­zu­rufen als er sich ge­merkt hat. Das Ge­hirn füllt die Erin­ne­rungs­lücken dann mit Sachen, die wahr­schein­lich pas­sen. Der Be­fragte weiß dabei selbst gar nicht, dass es sich nicht um eine echte Erin­ne­rung han­delt. Und das machen wir alle. Jeder hat Lücken, die er auto­ma­tisch mit krea­ti­ven Er­klä­run­gen auf­füllt.

Wenn man nicht unter Druck steht, kann man ein­fach locker sagen: „Das weiß ich nicht.“ Wenn man je­doch unter dem Druck steht, jetzt eine Aus­sage tref­fen zu müs­sen, oder wenn man z.B. einen Auf­satz mit einer be­stimm­ten Länge ab­lie­fern muss, steigt die Nei­gung zum Konfa­bu­lieren. Unter dem Druck, die Erwar­tung zu er­fül­len, schwa­felt man irgend­etwas, das pas­send klingt - in der Hoff­nung, dass es rich­tig sein könnte (provo­zier­te Kon­fa­bu­la­tion).
Möglicher­weise unter­liegt ChatGPT auf­grund irgend­wel­cher tech­ni­scher Para­meter eben­falls so einem Be­ant­wor­tungs­druck.

Abgesehen von möglichen Fehl­informa­tio­nen ist eine KI ein sehr inte­res­san­tes Tool, das nicht nur für lustige KI-Bilder in den Sozia­len Medien gut ist, son­dern auch für ernst­hafte An­wen­dun­gen in Indus­trie und Wis­sen­schaft ein­ge­setzt wer­den kann.
KI in Fachanwendungen

Vor einigen Jahren war im TV gelegent­lich zu sehen, wie in Sortier­anla­gen neue Tech­nik zum Ein­satz kommt. Damals wurde es noch nicht KI ge­nannt, sondern z.B. System zur Muster­erken­nung. Dabei wurden auf einem Fließ­band vorbei­fahrende Gegen­stände ge­filmt und die Muster­erken­nung konnte in Sekunden­bruch­teilen ent­schei­den, wie jeder einzelne Gegen­stand indi­vi­duell weiter­behan­delt wird.

Z.B. kann die visuelle Muster­erkennung schlech­tes von gutem Obst unter­schei­den oder z.B. kann in einer Müll­sortier­anlage nach Material­arten sor­tiert wer­den. Und bei meinem Haut­arzt zeigt der Com­puter an, ob meine Mutter­male ver­ändert sind.

Im von Bürokratie geplagten Deutsch­land muss man sich natür­lich fragen, wie KI beim Büro­kratie­abbau hel­fen könnte. KI könnte z.B. Ent­schei­dungen be­glei­ten, indem Angaben analy­siert wer­den und dem Sach­bearbei­ter dann Empfeh­lun­gen inkl. Be­grün­dun­gen an die Hand ge­ge­ben wer­den. Außerdem könn­ten KI-Systeme nach Un­regel­mäßig­kei­ten und Mustern suchen, die auf mensch­liche Fehler oder auf Betrug hin­deuten.

Dies alles würde jedoch voraus­setzen, dass die be­nötig­ten Infor­matio­nen digital vor­liegen und nicht wie bis­her auf Papier. Das heißt, die mangelnde Digi­tali­sie­rung ist an sich schon ein Ärger­nis, und zudem ver­hin­dert sie im näch­sten Schritt auch noch den Ein­satz von KI als Er­leich­te­rung.

Eine andere Möglichkeit, um Verwaltungs­mitarbei­ter zu ent­lasten, wäre der Ein­satz eines Chat­bots als Auskunfts­system. Erste Stadt­verwal­tun­gen be­rei­ten Pilot­projekte vor, um die häu­figs­ten all­gemei­nen Fragen von Bürgern mittels einer KI be­ant­wor­ten zu las­sen. Das er­setzt zwar kei­nen Sach­bearbei­ter, aber es ent­las­tet die Mit­arbei­ter bei der Be­antwor­tung von immer glei­chen Fragen.

Firmen versuchen ihre Produkt­kataloge oder lang­wei­lige Spezi­fi­ka­tio­nen durch einen freund­lichen KI-Kauf­berater zu er­set­zen. Aber aller An­fang ist schwer: In der Presse wurde be­rich­tet, wie die ers­ten Chat­bots gro­ßer Anbie­ter sich ver­lei­ten lie­ßen, auf Nach­frage kosten­lose Zusatz­leis­tun­gen oder Preis­rabatte zu ver­spre­chen, die real gar nicht an­ge­bo­ten wer­den. Dies ist womög­lich der glei­che Effekt wie beim o.g. Antwort­druck und der provo­zier­ten Kon­fa­bu­la­tion.

Andere Beispiele für Fachanwen­dun­gen sind Sprach­über­setzer, wie z.B. von der deut­schen Firma DeepL, die ggf. in beste­hende Anwen­dun­gen inte­griert wer­den kön­nen. Dazu werden API-Schnitt­stellen an­ge­bo­ten, wo­durch die Daten aus einer Fach­anwen­dung in die externe KI und zurück über­mit­telt werden.

In der Produktion kann KI einge­setzt werden, um anhand von Maschinen­sensoren voraus­zu­sagen, wann eine Maschine ge­war­tet wer­den muss, bevor es zu einem Aus­fall kommt.
Und bei der Lagerverwal­tung kann KI helfen, durch Vorher­sagen Eng­pässe zu ver­mei­den, ggf. schon bei der Be­schaf­fung und in der Liefer­kette.

Außerdem können Künstliche Intelli­genzen hel­fen große Daten­mengen (Big Data) zu analy­sie­ren und daraus Voraus­sagen ab­zulei­ten. Ein bekann­tes Bei­spiel sind lang­fris­tige Klima-Modelle.
Ein anderes Beispiel betrifft das Wachs­tum und die Ver­ände­rung der Be­völke­rung, z.B. um vorher­sagen zu kön­nen, wie viele Lehrer und andere Fach­kräfte ganz ande­rer Berufs­grup­pen aus­gebil­det wer­den müs­sen, um den zu­künf­ti­gen Be­darf der Wirt­schaft und der Ge­sell­schaft decken zu können.

Text: Jörg Rosenthal, Aidex GmbH Software, 2024 - 2025