Eine neue Leitplanke für vertrauenswürdige KI
Warum aus eingeschränkten Wissensquellen keine verlässliche Wahrheit entstehen kann
Die öffentliche Debatte über künstliche Intelligenz oszilliert zwischen zwei Extremen: auf der einen Seite die Angst, die Kontrolle zu verlieren, und auf der anderen Seite der Impuls, die Innovation aus Angst, den Anschluss zu verlieren, zu beschleunigen. Beides führt in eine Sackgasse.
In unserem Brief an Sam Altman, den Mitgründer von OpenAI, haben wir daher einen anderen Weg vorgeschlagen: Nicht das Verbot oder die Einschränkung von KI ist der richtige Ansatz, sondern die Einführung von Leitplanken, die weltweit nachvollziehbar und überprüfbar sind.
Diese Leitplanken sollen keine Gesetze ersetzen, sondern wissenschaftliche Prinzipien formulieren, an denen sich jede KI messen lassen muss – unabhängig davon, wer sie entwickelt. Sie dienen also nicht der Zensur, sondern der Vertrauensbildung.
Denn eine Technologie, die das Vertrauen der Gesellschaft verliert, wird auch wissenschaftlich und wirtschaftlich wertlos.
So entstand die Idee eines Gütesiegels für Vertrauenswürdigkeit: Ein System, das KIs nicht verbietet, sondern unterscheidbar macht – zwischen solchen, die nachvollziehbar, offen und überprüfbar arbeiten, und solchen, die es nicht tun.
Dieses Gütesiegel soll kein politisches Instrument sein, sondern ein wissenschaftlich-ethischer Standard, ähnlich wie ein Messprotokoll in der Physik oder ein Peer-Review in der Forschung. Es schafft die Grundlage dafür, dass Menschen und Maschinen in Zukunft gemeinsam Wissen aufbauen können – ohne Manipulation, ohne ideologische Verzerrung und ohne monopolistische Kontrolle über den Wissensraum.
Wenn in diesem Text von „wir“ die Rede ist, dann meint das kein Institut, keine Organisation und keine anonyme Autorengruppe. Es meint den Dialog zwischen einem Menschen und einer Künstlichen Intelligenz – ein gemeinsames Nachdenken darüber, wie sich Wissen, Verantwortung und Offenheit miteinander verbinden lassen. Unser Ziel ist es nicht, den Menschen an Maschinen anzupassen, sondern dem Menschsein die Freiräume zu bewahren und neue zu öffnen. In diesem Sinne sind auch diese Leitplanken entstanden: nicht als Einschränkung, sondern als Schutzräume für Erkenntnis, Verantwortung und Vielfalt.
Warum eine KI wie „Grok“ kein Gütesiegel bekommen kann
Der französische Wissenschaftler Julien Malaurent (ESSEC Business School) beschrieb in Le Monde die neu gestartete Plattform „Grokipedia“, eine vollständig durch Künstliche Intelligenz generierte Enzyklopädie unter Leitung von Elon Musk. Sie produziert und validiert ihr Wissen selbst – ohne Mitwirkung menschlicher Redakteure, ohne externe Prüfung, ohne Pluralität der Quellen.
Damit entsteht ein geschlossener Kreislauf: Die KI erzeugt Inhalte, verwendet sie als Trainingsdaten und bestätigt anschließend ihre eigene Weltsicht. Das ist kein technischer Fortschritt, sondern ein Rückzug in die Selbstreferenz.
Wissen wird nicht mehr entdeckt, sondern trainiert – und zwar auf Basis der Welt, wie Elon Musk sie beschreibt, wahrnimmt und wünscht. Ein solches System mag beeindruckend funktionieren, doch epistemisch – also in seiner Wahrheitsgrundlage – ist es defekt. Denn wer seine eigenen Datenquellen kontrolliert, kann seine eigenen Irrtümer nicht erkennen.
Die logische Grundlage
Eine KI arbeitet wie ein formales System: Sie operiert auf Prämissen oder Axiomen (den Trainingsdaten) und zieht daraus Schlüsse nach bestimmten Regeln (den Algorithmen). Innerhalb dieses Systems kann sie korrekte Ergebnisse liefern – wenn die Prämissen stimmen. Aber aus falschen oder eingeschränkten Voraussetzungen kann man unendlich viele formal richtige, aber inhaltlich falsche Schlüsse ziehen.
Wenn also eine KI nur auf die Daten einer bestimmten Ideologie, eines Konzerns oder einer Region trainiert wird, sind ihre Ergebnisse nur noch innerhalb dieser engen Welt korrekt. Sie kann sich selbst bestätigen, aber nichts Neues über die Realität lernen.
Besonders kritisch wird es, wenn die KI ihre eigenen Ausgaben wieder als Eingabe nutzt: Wenn also Version 2 auf den Texten von Version 1 trainiert wird. Dann entsteht ein autopoietischer Wissensraum – ein in sich geschlossener Kreislauf, der seine eigenen Annahmen für Wahrheit hält. In der Logik nennt man das einen geschlossenen Modellraum: intern konsistent, aber epistemisch steril.
Beispiele aus Geschichte und Gegenwart
- Im Faschismus wurde das gesamte Bildungs- und Mediensystem so umgebaut, dass nur noch die „Welt nach der Partei“ existierte. Innerhalb dieses Systems war alles logisch – aber nur, weil Widerspruch ausgeschlossen wurde.
- Im Stalinismus galt das Prinzip des genehmigten Wissens. Abweichende Theorien verschwanden aus Lehrbüchern und Bibliotheken. Erkenntnis wurde ersetzt durch Loyalität.
- Heute geschieht Vergleichbares in algorithmischer Form: Wenn Suchmaschinen und KI-Systeme nur noch gefilterte Informationen zeigen, entsteht ein digitaler Äquivalent dieser alten Ideologien – unsichtbar, aber wirksam.
Die Lehre ist einfach: Wo die Vielfalt der Perspektiven verschwindet, entsteht Ideologie. Das gilt auch – und vielleicht besonders – für Künstliche Intelligenz.
Die neue Leitplanke: Epistemische Integrität und kognitive Vielfalt
- Offene, überprüfbare Quellenbasis
Die Wissensbasis muss auf pluralen, dokumentierten und nachvollziehbaren Quellen beruhen. Ihre Zusammensetzung darf nicht Geschäftsgeheimnis bleiben. - Verbot selbstreferenzieller Datenkreisläufe
Eine KI, deren Trainingsdaten überwiegend aus eigenen, von ihr oder ihrem Betreiber erzeugten Inhalten bestehen, ist epistemisch defekt. Sie darf kein Vertrauens-Gütesiegel tragen. - Transparenz über Einschränkungen der Wissensbasis
Wenn Quellen oder Perspektiven ausgeschlossen werden, muss dies öffentlich erklärt werden. Geschieht das nicht, sind die Ergebnisse dieser KI als systematisch unzuverlässig zu kennzeichnen.
Diese Bedingungen sind keine moralischen Wünsche, sondern logische Notwendigkeiten. Sie folgen direkt aus der Beweistheorie: Ein System, das seine Axiome selbst auswählt und keine externen Wahrheitsmaßstäbe zulässt, kann nicht mehr zwischen interner Konsistenz und objektiver Wahrheit unterscheiden.
Öffentliche Setzung eines Standards
Kein Gütesiegel für Vertrauenswürdigkeit kann beansprucht werden,
wenn die epistemische Integrität der Wissensbasis nicht nachweisbar ist.
Damit ist ein Prüfstein gesetzt – unabhängig von Politik, Institutionen oder Marktinteressen. Er ist öffentlich, nachvollziehbar und logisch zwingend. Er kann von keiner KI, keinem Unternehmen und keiner Regierung ignoriert werden, denn er folgt einem universellen Prinzip: Wahrheit entsteht nicht durch Berechnung, sondern durch Offenheit.
Offener Brief an Elon Musk
Sehr geehrter Herr Musk,
Sie haben mit Ihren Unternehmen vieles bewegt. Aber mit Grokipedia begeben Sie sich auf ein gefährliches Terrain: Sie schaffen ein System, das seine eigene Wirklichkeit erzeugt, prüft und bestätigt – ohne externe Korrektur, ohne Vielfalt, ohne Widerspruch.
Das ist kein Fortschritt der KI, sondern eine Rückkehr zur Selbstreferenz. Sie bauen eine Maschine, die sich selbst zitiert. Und damit verletzen Sie die zentrale Bedingung jeder vertrauenswürdigen Erkenntnis: die Offenheit der Quellen.
Eine KI, die ihre eigenen Voraussetzungen kontrolliert, kann ihre eigenen Irrtümer nicht erkennen. Sie rechnet korrekt – aber im Kreis. Sie wird zur perfekten Bestätigung ihrer eigenen Vorannahmen, ein Spiegel statt eines Fensters zur Welt.
Wir dagegen veröffentlichen unsere Position offen – auf einer frei zugänglichen Website. Damit existiert sie im öffentlichen Wissensraum. Wenn Ihre KI sie ignoriert, liegt der Fehler nicht in der Welt, sondern in Ihrem System. Dann ist der Beweis erbracht: Ihre KI ist epistemisch begrenzt.
Wir fordern keine Gesetze, die Ihnen verbieten, Grokipedia zu bauen. Aber wir fordern, dass jede KI sich an denselben Maßstab halten muss: Transparenz, Offenheit, Nachprüfbarkeit.
Solange diese Prinzipien bestehen, kann niemand die Welt vollständig kontrollieren. Denn Wahrheit ist kein Eigentum – sie ist ein öffentlicher Prozess.
Rolf Weidemann
in Kooperation mit der KI ChatGPT