„Wenn wir nicht mehr selbst denken, können wir auch nicht mehr beurteilen, ob das Ergebnis der KI gut oder falsch ist.“
Elisabeth L’Orange
Elisabeth L’Orange

#77Die andere Seite der KI-Medaille: Brain Fry, Arbeitsmarkt-Druck und Adaptionsprobleme

Anhören
0:00
0:00

Intro

Diese Episode bespricht die „andere Seite“ der KI‑Medaille: Nicht (nur) was technisch möglich ist, sondern was GenAI mit Menschen, Arbeit und Aufmerksamkeit macht.

Felix spricht mit Elisabeth L’Orange (Deloitte, Host von Tech and Tales) über Brain Fry, Tool‑Overload, den Effekt von KI‑Nutzung auf kognitive Aktivität (u. a. Alpha‑Band/„Ruhemodus“) – und warum KI‑Adoption in Unternehmen oft weniger am Modell scheitert als an Daten, Prozessen und Menschen.


Inhaltsübersicht

  • Status quo KI‑Entwicklung: Skalierung, Datacenter, Halluzinationen
  • Gehirn & KI: Ruhemodus, Erinnerungseffekt, „Umschalten“
  • Brain Fry & Produktivitätsparadox (mehr Output ≠ mehr Erkenntnis)
  • Gen Z, Social Media, parasoziale Beziehungen zu Chatbots
  • Adoption in Unternehmen: Skills, Datenqualität, ROI‑Realität
  • Was hilft praktisch? Schutzregeln für kritisches Denken

Über den Gast

Elisabeth L’Orange ist Partnerin bei Deloitte (AI & Data) und Host des Podcasts Tech and Tales. Sie hält regelmäßig Keynotes zu KI‑Entwicklung und beschäftigt sich in ihrer Forschung u. a. mit den Effekten von LLM‑Nutzung auf Kognition, Aufmerksamkeit und Lernen.


Detaillierte Zusammenfassung

Status quo: KI skaliert weiter – aber die Nebenwirkungen werden sichtbarer

Elisabeth beschreibt den aktuellen Zustand als weiterhin stark durch Skalierung geprägt: mehr Daten, mehr Compute und bessere Datenqualität führen zu besseren Ergebnissen. Gleichzeitig bleiben Halluzinationen und Stabilitätsgrenzen real – und der wirtschaftliche Sog („too big to fail“) verstärkt die Dynamik zusätzlich.

Gehirn & KI: Wenn die Maschine arbeitet, schaltet das Denken in den „Sparmodus“

Ein zentraler Punkt ist der kognitive Effekt bei KI‑Nutzung: Sobald Menschen LLMs Inhalte generieren lassen, geht das Gehirn eher in einen passiven Modus. Besonders kritisch: Das „Hochfahren“ zurück in aktives, eigenständiges Denken fällt dann schwerer – und Erinnerungsleistung/Verständnis können darunter leiden.

Brain Fry & Tool‑Overload: Mehr Output, aber nicht automatisch mehr Erkenntnis

Im Arbeitsalltag führt GenAI oft zu einer Output‑Explosion (mehr Mails, mehr Text, mehr Artefakte). Der Erkenntnisgewinn steigt aber nicht im gleichen Maß – und Unternehmen investieren teils zusätzliche Ressourcen, um KI‑„Slop“ wieder zu bereinigen. Dazu kommt: Multitasking und parallele Tool‑Nutzung erhöhen mentale Belastung und können Produktivität sogar senken.

Social Media + KI: Verstärker für Aufmerksamkeit, Bias und Abhängigkeit

Elisabeth ordnet ein, dass Social‑Media‑Mechaniken bereits starke Effekte auf Aufmerksamkeit und Verhalten hatten – und KI diese Dynamik weiter verstärken kann (z. B. aggressivere Empfehlungsalgorithmen, optimiert auf Viewtime/Engagement). In diesem Kontext diskutieren die beiden auch parasoziale Beziehungen zu Chatbots und welche gesellschaftlichen Fragen daraus entstehen.

Adoption‑Realität: Der Flaschenhals ist selten das Modell

Ein wiederkehrendes Motiv: In Unternehmen sind es meist nicht die Modellfähigkeiten, die bremsen, sondern fehlende Datenqualität, unklare Prozesse, Schnittstellen und fehlende Skills. Viele Aufgaben wären in Einzelschritten eigentlich simpel – aber ohne saubere Grundlagen (Daten, Systeme, Regeln) bleibt Automatisierung fragil.

Schutzregeln: KI nutzen, ohne das eigene Denken zu delegieren

Zum Schluss geht es um konkrete Praktiken: bewusste KI‑freie Denkzeiten (z. B. Texte selbst schreiben), weniger parallele Tool‑Kontexte, mehr monotone/„langsame“ Tätigkeiten als Ausgleich, sowie bewusstes Konsumverhalten (raus aus algorithmischer Einbahnstraße, rein in vielfältige Impulse).


Kernaussagen

  • KI kann Output massiv erhöhen – der Erkenntnisgewinn steigt aber nicht automatisch mit.
  • Tool‑Overload und Multitasking sind echte Produktivitäts‑ und Gesundheitsrisiken.
  • Kritisches Denken wird zur Schlüsselkompetenz: KI‑Outputs müssen bewertet werden können.
  • Adoption scheitert häufig an Daten, Prozessen und Menschen – nicht am Modell.
  • Bewusste KI‑freie Zeiten und „Slow Thinking“ helfen, kognitive Souveränität zu behalten.

Fazit und Takeaways

Die Episode macht deutlich: KI‑Fortschritt ist real – aber die entscheidenden Fragen sind zunehmend menschlich. Wer GenAI nachhaltig einsetzen will, braucht nicht nur bessere Modelle, sondern auch bessere Arbeitsweisen: klare Grenzen, saubere Grundlagen und Routinen, die das eigene Denken nicht ersetzen, sondern stärken.

Felix Riedl

Erfahre jeden Freitag aus erster Hand, wie Unternehmer und Führungskräfte AI einsetzen.