Ich lese gerade ein Buch das meine Sicht auf... alles ändert.
Factfulness von Hans Rosling.
Falls du es nicht kennst: Es geht darum, wie Medien, Statistiken und unser eigenes Gehirn uns eine komplett verzerrte Weltsicht geben. Die Welt ist nicht so schlecht wie wir denken. Wir fokussieren auf Negativität. Wir übersehen Fortschritt. Wir lassen uns von Dramatik manipulieren.
Das Buch macht Hoffnung.
Aber dann fiel mir was auf.
Während ich über Medien-Verzerrung las, chattete ich parallel mit ChatGPT. Und plötzlich wurde mir klar:
Das Problem mit AI ist dasselbe wie mit Medien.
Nur schlimmer. Weil AI produziert nicht nur verzerrte Inhalte.
AI produziert Masse.
Und in dieser Masse? Versteckt sich ein neues Problem.
AI Slop - der Begriff den du kennen musst
In der Forschung gibt es dafür einen Begriff: AI Slop.
Slop ist so etwas wie dünner Brei. Abfall. Minderwertige Masse.
Und genau das spucken die AI-Systeme aus: Synthetischen Müll.
Perfekt formuliert. Professionell klingend. Überzeugend strukturiert.
Aber falsch oder von minderwertiger Qualität.
Nicht immer. Nicht überall. Aber oft genug, dass es gefährlich wird.
Die Situation die mich wachgerüttelt hat
Letzte Woche. Ich arbeite mit KQL (Kusto Query Language).
Für diejenigen die es nicht kennen: KQL ist eine Abfragesprache für große Datenmengen. Microsoft nutzt sie. Sehr spezifisch. Sehr technisch.
Ich brauche Code. Ich frage ChatGPT.
Antwort kommt. Sieht gut aus. Perfekt formatiert. Mit Erklärungen.
Ich kopiere. Ich teste. Es funktioniert nicht.
Syntax-Error. Die Funktion die ChatGPT verwendet hat? Existiert nicht.
Okay. Passiert. Ich frage nach.
"Das funktioniert nicht. Diese Funktion gibt es nicht in KQL."
ChatGPTs Antwort:
"Doch, die Funktion existiert. Hier ist die korrekte Syntax. Versuche es so."
Zweiter Versuch. Wieder falsch.
"Nein, das funktioniert immer noch nicht. Diese Funktion ist nicht Teil von KQL."
ChatGPT:
"Entschuldigung für die Verwirrung. Du hast Recht, lass mich das korrigieren."
Dann: Wieder falscher Code.
Dritter Versuch. Gleiches Spiel.
Und hier ist das Problem: ChatGPT beharrt darauf dass es funktioniert. Obwohl es offensichtlich ist, dass es nicht funktionieren KANN.
Perfekte Grammatik. Überzeugende Erklärungen. Confidence = 100%. Richtigkeit = 0%.
Das ist AI Slop.
Warum das gefährlicher ist als du denkst
Zugegeben: Es ist schon wesentlich besser geworden.
Vor einem Jahr? Noch schlimmer. Heute? Viel besser.
Aber das Problem bleibt:
AI produziert nicht nur falsche Infos. AI produziert falsche Infos mit absoluter Confidence.
Und das ist der Kern-Unterschied zu Google-Suche:
Google: Du siehst 10 Quellen, du entscheidest
AI: Du bekommst EINE Antwort, perfekt formuliert, und dein Gehirn denkt "Klingt gut, wird schon stimmen"
Kein "vielleicht". Kein "könnte sein". Nur: "So ist es."
Auch wenn es Schwachsinn ist.
Überprüfe deine Quellen
Hier kommt der Kreis zurück zu Factfulness.
Hans Rosling zeigt: Medien verzerren, weil Drama besser verkauft als Fakten.
AI verzerrt, weil es auf Masse trainiert wurde - und Masse enthält Müll.
Factfulness lehrt: "Überprüfe deine Annahmen. Hinterfrage die Narrative."
Bei AI gilt dasselbe. Nur dringender.
Ich bin weiterhin ein AI Enthusiast. Ich nutze AI täglich. Dieser Newsletter wird mit AI geschrieben (Interview-Mich-Prompt (du kennst ihn) und meine 20 %).
Aber ich bin kein blinder Follower.
AI ist mächtig. Und gefährlich.
Hier ist wie du navigierst.
Mein F.A.C.T.-Check-Flow
Ich habe mir ein Framework abgeschaut. Das Prinzip wurde meines Wissens nicht von einer einzelnen Person erfunden. Es ist eine Zusammenführung bewährter Methoden aus Wissenschaft, Journalismus und Geheimdienst-Arbeit.
F.A.C.T. steht für:
Find the Claim
Assess the Source
Cross-Verify
Trace the Evidence
Gehen wir es durch. Mit meinem KQL-Beispiel.
F - Find the Claim (Finde die Behauptung)
Was wird genau behauptet?
Nicht: "ChatGPT hat mir Code gegeben."
Sondern: "Diese spezifische KQL-Funktion existiert und funktioniert so."
Leitfragen:
Was wird genau behauptet?
Ist das ein Fakt, eine Meinung oder eine Interpretation?
Kann ich es klar formulieren?
In meinem Fall:
ChatGPT behauptet: "Die Funktion summarize_advanced() existiert in KQL und macht X."
Klar. Konkret. Überprüfbar.
A - Assess the Source (Prüfe die Quelle)
Wer steht hinter dieser Info?
ChatGPT = AI Language Model.
Trainiert auf Internet-Daten bis Cutoff-Date
Keine Live-Verbindung zu Microsoft Docs (ja, man kann Web-Search aktivieren und Tools suchen auch bereits selbstständig im Internet)
Kann "halluzinieren" (schönes Wort für "lügen")
Leitfragen:
Wer sagt das?
Welche Motivation oder Agenda könnte die Quelle haben?
Hat die Quelle Zugang zu aktuellen, verifizierten Infos?
Bei AI:
Cutoff-Date beachten (alte Infos = veralteter Code)
Training-Data = Internet (Internet = viel Müll)
Confidence ≠ Korrektheit
In meinem Fall:
ChatGPT hat möglicherweise keinen direkten Zugang zu KQL-Dokumentation. Es "rät" basierend auf Pattern-Matching.
Rote Flagge. Weiter zu C.
C - Cross-Verify (Überprüfe mit mehreren Quellen)
Finde unabhängige Quellen.
Tools für Code/Tech (beispielhaft):
Offizielle Dokumentation (Microsoft Docs für KQL)
Stack Overflow (echte User, echte Probleme)
GitHub (echter Code, der funktioniert)
Tools für Facts (beispielhaft):
Google Scholar (wissenschaftliche Papers)
Reuters Fact Check
Snopes
Offizielle Regierungs-/Wissenschafts-Seiten (aber auch hier Vorsicht bei den Autoren - siehe z.B. Offizielle Website vom White House!)
In meinem Fall:
Ich google: "KQL summarize_advanced function"
Ergebnis: Null Treffer in Microsoft Docs.
Stack Overflow: Niemand verwendet diese Funktion.
GitHub: Keine Repos mit dieser Funktion.
Fazit: Die Funktion existiert nicht.
T - Trace the Evidence (Finde Primärquellen)
Kann ich die Original-Quelle sehen?
Bei Code: Kann ich den Code selbst testen? Bei Statistiken: Kann ich die Rohdaten sehen? Bei Studien: Kann ich das Paper lesen?
Leitfragen:
Wo kommt die Info URSPRÜNGLICH her?
Kann ich die Daten, Bilder oder Studien selbst überprüfen?
Gibt es messbare, reproduzierbare Belege?
In meinem Fall:
Ich teste den Code. Er funktioniert nicht.
Ich checke Microsoft Docs: Funktion nicht dokumentiert.
Ich checke KQL Reference: Funktion existiert nicht.
Primärquelle = Microsoft (Hersteller von KQL).
Wenn Microsoft sagt "existiert nicht" > ChatGPT sagt "existiert" → ChatGPT lügt.
Case closed.
Die 3 AI Slop Erkennungsmerkmale (BEVOR du F.A.C.T.-checkst)
Manchmal merkst du es schon bevor du den vollen Check machst.
Erkennungsmerkmal #1: Zu perfekte Formulierung
Wenn jeder Satz perfekt sitzt. Keine Umgangssprache. Keine Persönlichkeit.
Red Flag.
Menschen schreiben nicht perfekt. AI schon.
Erkennungsmerkmal #2: Fehlende konkrete Quellen
"Studies show..." - Welche Studien? "Experts say..." - Welche Experten? "It's been proven..." - Von wem? Wann? Wo?
Wenn AI auf Quellen verweist die es nicht nennen kann: Slop.
Erkennungsmerkmal #3: Übermäßige Confidence bei komplexen Themen
Komplexe Themen haben Nuancen. Unsicherheiten. "Es kommt drauf an."
Wenn AI bei komplexen Fragen 100% confident antwortet ohne Einschränkungen?
Slop-Alarm.
In meinem KQL-Fall: ChatGPT war 100% confident. Bei jeder falschen Antwort.
Das hätte mein erstes Zeichen sein müssen.
Factfulness trifft AI - Die Parallele
Hans Rosling lehrt in Factfulness:
"Die Welt ist nicht so schlecht wie Medien uns glauben machen. Aber sie ist auch nicht perfekt. Die Wahrheit liegt in den Daten."
Bei AI gilt:
"AI ist nicht so schlecht wie Kritiker sagen. Aber es ist auch nicht perfekt. Die Wahrheit liegt in der Verifikation."
Beide - Medien und AI - produzieren verzerrte Realitäten.
Medien: Drama verkauft besser als Normalität. AI: Confidence verkauft besser als "Ich weiß es nicht."
Die Lösung ist dieselbe:
Überprüfe. Hinterfrage. Verifiziere.
Rosling zeigt: Wenn du die Daten checkst, sieht die Welt besser aus als gedacht.
Ich zeige: Wenn du AI-Antworten checkst, bleibst du auf der sicheren Seite.
Was das für dich bedeutet
Du nutzt AI. Ich weiß es.
ChatGPT, Claude, Gemini - egal.
Die Frage ist nicht OB du AI nutzt. Sondern WIE.
Hier ist mein Rat:
1. Nutze AI als Co-Pilot, nicht als Autopilot
AI gibt dir Richtung. Du entscheidest.
AI schreibt den ersten Draft. Du editierst.
AI schlägt Lösungen vor. Du verifizierst.
2. Wende F.A.C.T. bei kritischen Entscheidungen an
Code? Check es. Fakten für Präsentation? Cross-verify. Medizinische Infos? Trace the evidence.
Je wichtiger die Entscheidung, desto wichtiger der Check.
3. Erkenne die Erkennungsmerkmale
Zu perfekt? Slop. Keine Quellen? Slop. 100% Confidence bei komplexem Thema? Slop.
Dein Bullshit-Detektor ist dein bester Freund.
Bleib kritisch. Bleib enthusiastisch.
Ich liebe AI. Ich nutze AI täglich.
Aber ich liebe es MIT offenen Augen.
Factfulness lehrt: "Sei weder Optimist noch Pessimist. Sei Possibilist - und überprüfe die Fakten."
Bei AI: Sei weder Fanboy noch Hater. Sei Navigator - und nutze F.A.C.T.
AI ist mächtig. AI ist gefährlich.
Mit F.A.C.T. bist du sicher unterwegs.
Dein nächster Schritt
Nutze F.A.C.T. diese Woche.
Einmal. Bei einer AI-Antwort die wichtig ist.
Code, Fakten, Strategien - egal.
Gehe durch die 4 Schritte:
Find the Claim
Assess the Source
Cross-Verify
Trace the Evidence
Kommentiere oder Antworte mir.
Sag mir:
Was hast du gecheckt?
Was hat F.A.C.T. dir gezeigt?
Hat es deine Entscheidung geändert?
Ich will wissen ob F.A.C.T. für dich funktioniert. Oder ob ich es noch schärfen kann.
Bottom Line
AI Slop ist real.
Perfekt formuliert. Überzeugend strukturiert. Oft falsch.
Aber du bist nicht hilflos.
F.A.C.T. gibt dir ein System. Um zu navigieren. Ohne unterzugehen.
Factfulness zeigt: Die Welt ist besser als Medien sagen.
F.A.C.T. zeigt: AI ist nützlicher wenn du weißt wie du checkst.
Bleib kritisch. Bleib enthusiastisch.
Und check deine verdammten Quellen.
P.S.: Factfulness von Hans Rosling. Lies es. Es ändert wie du Nachrichten, Statistiken und die Welt siehst.

