Künstliche Intelligenz | • Aidex • Kontakt • Datenschutz • EN |
Investitionen vs. Datenschutz
Mindestens 95% der Konsumenten von KI haben kein Bezahl-Abo. Die KI-Anbieter machen hohe Verluste. Allein im Jahr 2024 wurden schätzungsweise 130 bis 250 Milliarden US-Dollar in KI investiert. Auch zuvor, in jedem Jahr seit 2020, waren es mindestens 100 Mrd. Dollar jährlich. Eine spannende Frage ist, wie die KI-Anbieter versuchen werden, mehr Einnahmen zu generieren. Im Business-Bereich wird es über steigende Produkt-Integrationen und abgerechnete API-Nutzungen passieren. Bei Privatnutzern wird man es mit Werbung versuchen. Google und Perplexity setzen auf Werbung. Der Perplexity-CEO hat gesagt, man wolle Daten sammeln, um „hyper-personalisierte Werbung“ anzubieten. Dafür müssen die Anbieter so viele Informationen über jeden Nutzer sammeln, wie möglich. Bezüglich Speicherfristen siehe unten den Absatz „Datenschutz-Einstellungen“. LLM lokal ausführen
Seit 2025 bietet sich fast plötzlich die Möglichkeit, Sprachmodelle auch offline auf dem eigenen, normalen PC auszuführen. Somit kann man eine KI selber betreiben, unabhängig von einem Anbieter im Internet. Dadurch befreit man sich von dem massiven Speicherbegehren der KI-Anbieter und ist frei von Komplikationen mit dem Datenschutz, weil keine Daten übertragen werden. Die Installation ist erstaunlich einfach, wie unsere kurze Anleitung zum Einrichten eines lokalen LLM-Runners beschreibt. Man kann dann ein kompaktes Sprachmodell passend für den eigenen Bedarf und passend zur eigenen Hardware auswählen. Da handelsübliche PCs nur über mittelmäßig viel Hauptspeicher verfügen und nicht unbedingt mit einer riesigen Grafikkarte ausgestattet sind, ist es nur möglich, quantisierte KI-Modelle zu verwenden. Man muss ehrlich sagen, dass diese kleineren Varianten leider nicht besonders „schlau“ sind. Bei echtem Bedarf müsste man ggf. über einen besseren Computer nachdenken. |
Datenschutz-Einstellungen
Zwar wurde in ChatGPT eine Datenschutz-Einstellung nachgerüstet, mit der man der
Weiterverwendung der eigenen Eingaben zum KI-Training widersprechen kann.
Allerdings beeinflusst dies nicht die Speicherung der Eingaben, die derzeit auf unbestimmte Zeit läuft, siehe rechts.
Einstellungen in ChatGPT: Gehen Sie in Ihrem ChatGPT-Profil auf: „Einstellungen“ > „Datenkontrollen“, und schalten Sie dort die Option aus: „Das Modell für alle verbessern“. In Claude hingegen kann man die Nutzung zum Training nicht abschalten. Unter Einstellungen > Datenschutz findet man den Satz: „... verwenden wir deine Chats und Coding-Sessions, um unsere KI-Modelle zu trainieren und zu verbessern.“ Im August 2025 mussten die Claude-User zustimmen, dass die Eingabedaten 5 Jahre lang gespeichert werden. Ich vermute, dies gilt für die Zeit nach der Löschung eines Chats.
In ChatGPT gibt es keine bestimmte Speicherfrist, d.h. man muss von einer Speicherung auf unbestimmte Zeit ausgehen!
Auch wenn man das Training abgeschaltet hat (s.o.), bleibt ein gelöschter Chat noch 30 Tage gespeichert.
Doch wegen eines Rechtsstreits ist OpenAI derzeit (2025) zur Beweissicherung verpflichtet und muss alle "Nutzerinhalte auf unbestimmte Zeit" speichern.
Mir erzählte eine Freundin, dass sie ihren ganzen Lebenslauf in ChatGPT kopiert hatte, um sich ein Bewerbungs-Anschreiben auf eine ebenfalls hineinkopierte Stellenanzeige formulieren zu lassen. Das hat gut geklappt, sie hat die Stelle sogar bekommen. Aber bezüglich all ihrer persönlichen Daten aus ihrem Lebenslauf hatte sie sich keine Gedanken gemacht. Und nun stellen Sie sich mal vor, wie in einer Firma gedankenlos eine Liste mit Mitarbeiter- oder Kundendaten in eine KI hochgeladen würde, ohne dass man weiß, ob und wie diese Daten weiterverwendet werden. Das wäre ein Datenschutzverstoß: als unbefugte Weitergabe und als Datenübertragung in ein Drittland. |
Generative KI
Erinnern Sie sich, als früher Schach-Turniere im Fernsehen übertragen wurden? Wer gut Schach spielen kann, gilt als intelligent. In den 1990ern wollte auch IBM zeigen, dass ihre Computer etwas auf dem Kasten haben. 1997 gewann „Deep Blue“ gegen den Schachweltmeister Garri Kasparow. Doch IBMs Supercomputer mit 216 speziellen Schachprozessoren war nicht intelligent, sondern hatte „nur“ eine sehr geschickte Programmierung (in der Programmiersprache C geschrieben). Dies wird heutzutage als regelbasierte KI oder symbolische KI bezeichnet. Das, was wir heute als „generative KI“ (GenAI) bezeichnen, funktioniert nach einem anderen Prinzip und hat die Fähigkeit, Inhalte zu erzeugen, z.B. Texte, Bilder oder Musik. Die Ergebnisse können beeindrucken, aber der Begriff „Intelligenz“ passt immer noch nicht. Spätestens seit 2023 machen Sprachmodelle von sich reden, die natürliche, geschriebene Sprache verstehen können und ebenso antworten können: ↗ChatGPT von OpenAI, ↗Claude.ai von Anthropic, Google ↗Gemini und Meta ↗LLaMA. Außerdem Microsoft/Bing ↗Copilot, der allerdings ChatGPT nutzt. Siehe: ↗KI-Plattformen im Überblick.Muster erkennen und reproduzieren
Ein Sprachmodell (LLM) basiert auf einem neuronalen Netzwerk, das mit riesigen Mengen an Textdaten trainiert wurde, um Muster in der Sprache zu erkennen. Um selber Texte zu generieren, verwenden Sprachmodelle statistische Zusammenhänge, um vorherzusagen, welche Wörter oder Sätze wahrscheinlich als nächstes folgen werden. Aber die KI hat kein Bewusstsein für den Inhalt, den sie produziert. GenAI erzeugt Antworten nur auf der Grundlage von Wahrscheinlichkeiten, nicht durch echtes Verständnis für deren Bedeutung. Sprachmodelle können physische und logische Prinzipien und Widersprüche nicht selber erkennen, sondern kennen dies nur über das Vorhandensein von Sprachmustern aus den Trainingsdaten. Aus diesem Grund bezeichnete die Linguistin Emily Bender solche Sprachmodelle als „stochastic parrots“ (stochastische Papageien), denn sie plappern nur, ohne den Inhalt ihres Plapperns wirklich zu verstehen. Siehe dazu: ↗Überprüfung von Intelligenz. 2023 stießen die vielen neuen Nutzer zunächst auf zahlreiche unlogische Antworten und herbeifabulierte Aussagen, die ganz offensichtlich falsch waren. Solche Halluzinationen konnten verringert werden, indem neuen Techniken u.a. ehrliche „Ich weiß es nicht“-Antworten stärker belohnen. |
Urheberrecht legal umgangen?
Harry Potter wörtlich wiedergegeben: Im Juni 2025 fand eine Studie heraus, dass Metas Sprachmodell Llama 3.1 in der Lage ist,
fast 42% des ersten „Harry Potter“-Bands wörtlich zu reproduzieren.
Das stellt eine neue Dimension in der Urheberrechts-Problematik dar, weil bisher davon ausgegangen wurde,
dass Sprachmodelle die Inhalte lediglich abstrahieren und nicht direkt wiedergeben.
Doch solche Wiedergaben bzw. Rekonstruktionen aus geschützten Werken werfen erhebliche Zweifel an der bisherigen Argumentation der KI-Anbieter auf, sich im Rahmen der US-amerikanischen „Fair Use“-Regeln zu bewegen. Ebenfalls im Juni 2025 reichten die Produzenten Disney und Universal eine Klage gegen den Bildgenerator Midjourney ein. Sie werfen dem KI-Unternehmen vor, massenhaft urheberrechtlich geschützte Werke wie Disney-Figuren oder Universal-Filmcharaktere verwendet zu haben, um die KI zu trainieren, ohne eine Lizenz dafür erworben zu haben. Die KI könne nun auf Nutzerwunsch Bilder generieren, die bekannten Figuren täuschend ähnlich sehen - was die Kläger als Piraterie bezeichnen. Die Klage ist die erste umfassende Auseinandersetzung großer Medienkonzerne mit einem KI-Unternehmen vor einem US-Bundesgericht. Bisher beriefen sich viele KI-Unternehmen darauf, dass sie Trainingsdaten nur "transformativ" nutzen – also auf eine neue Weise verarbeiten und nicht einfach kopieren.
Auch die Tatsache, dass die meisten KI-Outputs keine Originalwerke direkt reproduzieren, wurde als Schutzschild gegen Urheberrechtsklagen verwendet.
Doch dieses Argument bröckelt je mehr Fälle bekannt werden, wo KI längere Sätze oder Bild-Elemente nahezu unverändert wiedergegeben hat.
Bisher begünstigte die juristische Unsicherheit in den USA die KI-Anbieter. Besonders relevant wird nun auch der kommerzielle Charakter vieler KI-Angebote (Abo-Modelle), was eine „faire“ Nutzung zum Wohle der Gesellschaft zusätzlich in Frage stellt. Die Disney-Klage könnte zu einem Präzedenzfall werden, der definiert, wie weit sich KI-Unternehmen bei der Nutzung von Trainingsdaten auf Fair Use berufen dürfen. Sollten Gerichte entscheiden, dass schon das Training mit geschützten Inhalten eine urheberrechtliche Verletzung darstellt, könnte es die Branche zwingen, nur lizenzierte Inhalte zu verwenden. Allerdings sind ebenfalls im Juni 2025 mehrere Buch-Autoren mit ihren Urheberrechtsklagen vor US-Gerichten unterlegen. Ein Richter entschied, dass beim Training von Claude mit gekauften Gebraucht-Büchern „Fair Use“ gilt, weil die Bücher legal erworben und digitalisiert wurden. Ein anderer Richter urteilte, dass kein Nachweis von Markt- oder Lizenzschäden durch die Reproduktion durch Llama (Meta) vorliege. |
![]() KI-Bild KI-Bildgenerator: Sie kennen
sicherlich das lange deutsche Wort „Donaudampfschifffahrtsgesellschaftskapitän“.
Es wurde erstmals 1936 in einem Lied aus Wien besungen: „Kein Lied war je so schön, als das
vom Donaudampfschiffahrtsgesellschaftskapitän […]“.
Das Bild ist eine KI-erzeugte Visualisierung dieses Wortes. Auf dem ersten Blick ganz hübsch.
Eine Erklärung für diese Abnormitäten liegt in der Aufgabenstellung: „Zeige den Kapitän eines Dampfschiffs auf einem Fluss.“ Das klingt einfach, ist es aber nicht. Einen Kapitän würde man normalerweise im Steuerhaus darstellen. Dann könnte man jedoch nicht erkennen, dass es sich um ein Dampfschiff handelt. Und man würde nicht sehen, dass es auf einem Fluss fährt. Um alle Anforderungen unter einen Hut zu kriegen, hat sich die KI die uns bekannten Realitäten wohl etwas zurechtgebogen. Oder besser gesagt: Dem Bild-Generator war gar nicht „bewusst“, dass die Konstruktion nicht logisch oder technisch nicht richtig ist. Der Generator hat nur Bildmuster, die er aus seinen Trainingsdaten kennt, so rekombiniert, dass alles zu der Anforderung passt. |
Rückblick 2022/2023: Eine plappernde KI für alle Seit Ende 2022 kann jeder am PC oder Smartphone mit einer KI herumspielen:
Die US-Firma OpenAI hat ihre Künstliche Intelligenz „ChatGPT“ am 30.11.2022 als Webseite
der Öffentlichkeit kostenlos zugänglich gemacht.
Es ist nur eine Anmeldung mit Mail-Adresse und (leider) Handy-Nr. erforderlich.
Ich habe es damals sofort ausprobiert und war direkt begeistert, dass die Webseite beliebige Fragen auch auf deutsch versteht und beantwortet. Die „geistige“ Flexibilität von ChatGPT zeigt sich darin, dass man sich in Sekundenschnelle z.B. eine Fantasie-Geschichte nach eigenen Vorgaben schreiben lassen kann. Fragt man die KI nach Informationen zu gut dokumentierten Themen, erhält man beeindruckend gute Antworten. Fragt man jedoch nach Informationen, die nicht oder unzureichend in den Trainingsdaten enthalten waren, plappert die KI irgendetwas, das möglicherweise falsch ist. Davor warnt auch der Anbieter. Die kostenlos nutzbare ChatGPT Version 3.5 wurde 2023 durch die damals kostenpflichtige Version 4.0 ergänzt. Der Hauptunterschied ist, dass die Version 4 mit dem Bildgenerator DALL·E gekoppelt wurde. Nun kann man, gegen ein monatliches Entgelt, auch Bilder erzeugen lassen, so wie das oben gezeigte Bild. So wie
es beim oben gezeigten Bild ein Problem mit komischen Ungenauigkeiten gibt,
gibt es ein ähnliches Problem auch bei der Textausgabe.
Von Anfang an war aufgefallen, dass ChatGPT konfabuliert - sich
fehlende Informationen herbei-halluziniert.
Beim Menschen spricht man von ↗Konfabulation, wenn jemand versucht mehr Erinnerungen aus seinem Gedächtnis abzurufen als er sich gemerkt hat. Das Gehirn füllt die Erinnerungslücken dann mit Sachen, die wahrscheinlich passen. Der Befragte weiß dabei selbst gar nicht, dass es sich nicht um eine echte Erinnerung handelt. Und das machen wir alle. Jeder hat Lücken, die er automatisch mit kreativen Erklärungen auffüllt. Wenn man nicht unter Druck steht, kann man einfach locker sagen: „Das weiß ich nicht.“
Wenn man jedoch unter dem Druck steht, jetzt eine Aussage treffen zu müssen, oder
wenn man z.B. einen Aufsatz mit einer bestimmten Länge abliefern muss, steigt die Neigung zum Konfabulieren.
Unter dem Druck, die Erwartung zu erfüllen, schwafelt man irgendetwas, das passend klingt - in der Hoffnung,
dass es richtig sein könnte (provozierte Konfabulation).
|
KI in Fachanwendungen Vor einigen Jahren war im TV
gelegentlich zu sehen, wie in Sortieranlagen neue Technik zum Einsatz kommt.
Damals wurde es noch nicht KI genannt, sondern z.B. System zur Mustererkennung.
Dabei wurden auf einem Fließband vorbeifahrende Gegenstände gefilmt und die Mustererkennung
konnte in Sekundenbruchteilen entscheiden, wie jeder einzelne Gegenstand individuell weiterbehandelt wird.
Z.B. kann die visuelle Mustererkennung schlechtes von gutem Obst unterscheiden oder z.B. kann in einer Müllsortieranlage nach Materialarten sortiert werden. Und bei meinem Hautarzt zeigt der Computer an, ob meine Muttermale verändert sind. Im von Bürokratie geplagten Deutschland muss man sich natürlich fragen, wie KI beim Bürokratieabbau helfen könnte. KI könnte z.B. Entscheidungen begleiten, indem Angaben analysiert werden und dem Sachbearbeiter dann Empfehlungen inkl. Begründungen an die Hand gegeben werden. Außerdem könnten KI-Systeme nach Unregelmäßigkeiten und Mustern suchen, die auf menschliche Fehler oder auf Betrug hindeuten. Dies alles würde jedoch voraussetzen, dass die benötigten Informationen digital vorliegen und nicht wie bisher auf Papier. Das heißt, die mangelnde Digitalisierung ist an sich schon ein Ärgernis, und zudem verhindert sie im nächsten Schritt auch noch den Einsatz von KI als Erleichterung. Eine andere Möglichkeit, um Verwaltungsmitarbeiter zu entlasten, wäre der Einsatz eines Chatbots als Auskunftssystem. Erste Stadtverwaltungen bereiten Pilotprojekte vor, um die häufigsten allgemeinen Fragen von Bürgern mittels einer KI beantworten zu lassen. Das ersetzt zwar keinen Sachbearbeiter, aber es entlastet die Mitarbeiter bei der Beantwortung von immer gleichen Fragen.
Firmen versuchen ihre Produktkataloge oder langweilige Spezifikationen durch einen
freundlichen KI-Kaufberater zu ersetzen.
Aber aller Anfang ist schwer: In der Presse wurde berichtet, wie die ersten Chatbots großer Anbieter
sich verleiten ließen, auf Nachfrage kostenlose Zusatzleistungen
oder Preisrabatte zu versprechen, die real gar nicht angeboten werden.
Dies ist womöglich der gleiche Effekt wie beim o.g. Antwortdruck und der provozierten Konfabulation.
Andere Beispiele für Fachanwendungen sind Sprachübersetzer, wie z.B. von der deutschen Firma DeepL, die ggf. in bestehende Anwendungen integriert werden können. Dazu werden API-Schnittstellen angeboten, wodurch die Daten aus einer Fachanwendung in die externe KI und zurück übermittelt werden. In der Produktion kann KI eingesetzt werden, um anhand von Maschinensensoren vorauszusagen, wann
eine Maschine gewartet werden muss, bevor es zu einem Ausfall kommt.
Ein anderes Beispiel betrifft das Wachstum und die Veränderung der Bevölkerung, z.B. um vorhersagen zu können, wie viele Lehrer und andere Fachkräfte ganz anderer Berufsgruppen ausgebildet werden müssen, um den zukünftigen Bedarf der Wirtschaft und der Gesellschaft decken zu können. |