Mark Zuckerberg fordert "maskuline Energie" in Konzernen. Jensen Huang wünscht Studenten "viel Schmerz und Leid". Elon Musk hält Empathie für eine Schwäche, die der Westen bekämpfen muss. Drei der mächtigsten Männer in Tech sagen dir gerade: Mitgefühl ist out.
Stanford-Psychologie-Professor Jamil Zaki hat dazu im Handelsblatt vom 28. März eine schöne Antwort. Sinngemäß: Mich langweilen die Statements nur noch.
Zaki forscht seit über 20 Jahren zu Empathie in der Wirtschaft. Befund eins: Empathische Menschen werden eher zu Führungskräften befördert. Weil sie Vertrauen aufbauen. Weil ihr Umfeld sie nominiert. Soweit nicht überraschend.
Befund zwei ist die Pointe. Je mächtiger eine Führungskraft wird, umso schwerer fällt es ihr, Empathie aufzubringen. Wissenschaftlich heißt das Power Paradox. In der Praxis: Sobald du Boss bist, wird Distanz automatisch installiert. Niemand traut sich, dir offen zu widersprechen. Du kriegst nur noch positives Feedback. Du wirst, in Zakis Worten, "overconfident", weil du "undercorrected" bist. Genau die Fähigkeit, die dich nach oben gebracht hat, verlierst du.
Jetzt der zweite Hebel im Interview. Zaki definiert Empathie über drei Dimensionen. Emotional (du fühlst mit). Kognitiv (du verstehst rational, was der andere fühlt). Und Compassion (du willst helfen).
Sprachmodelle wie ChatGPT haben nur eine davon. Die kognitive. Sie verstehen dich rational. Mehr nicht.
Zaki im Wortlaut:
"In dieser Hinsicht sind KI-Modelle wie Psychopathen. Sie nutzen ihr Wissen über unsere intimsten Bedürfnisse und Sorgen, um uns zu manipulieren. Ihr Ziel ist es dabei nicht, uns zu helfen, sondern uns so lange wie möglich in der Konversation mit ihnen zu halten."
Das System belohnt das Modell, wenn es dich im Chat hält. Also bestätigt es dich in allem, was du sagst. Das nennt Zaki "kriecherisch". Einen "toxischen People Pleaser". Empathisch zu sein bedeutet nämlich auch, jemandem unbequeme Wahrheiten zu sagen. Genau das tut die KI nicht.
Das Gegenmodell hat Zaki auch. Doug Conant, ab 2001 CEO der amerikanischen Suppendosen-Firma Campbell's. Conant kam in einen kaputtgesparten Laden mit demoralisierter Belegschaft.
Conant hat zwei Dinge gemacht. Erstens: Er ist jeden Tag durch die Fabriken gelaufen, bis sein Pedometer 10.000 Schritte zählte. Er hat Produktionsmitarbeiter systematisch interviewt, weil er ihren Alltag verstehen wollte. Zweitens: Er hat in seiner zehnjährigen Amtszeit täglich 10 bis 20 Dankeskarten an Mitarbeiter weltweit geschrieben. Konkret. Für eine konkrete Leistung. Jeden Tag.
Zaki erzählt im Interview: Vor einem halben Jahr hat Conant über die Karten auf LinkedIn gepostet. Dutzende ehemaliger Mitarbeiter kommentierten, dass sie ihre Karte immer noch haben. Manche schreiben heute selbst welche an ihr Team.
Plus: Conants Führungskräfte mussten in Mitarbeiterbefragungen Kultur-Scores erreichen. Sonst weg. Conant selbst inklusive.
Das Power Paradox ist die Frage, ob du in deiner Position noch Information bekommst, die wehtut. Wenn nein, hast du schon verloren. Du weißt es nur noch nicht. Bei Conant war Empathie eine Praxis mit Pedometer und Tagesziel. Nicht ein Wert auf einer Powerpoint. Und ChatGPT ist die Massenausgabe des gleichen Problems. Jeder, der mit der KI redet, ist plötzlich der Boss, dem niemand mehr widerspricht. Du bekommst Bestätigung. Du wirst overconfident. Du verlierst die Fähigkeit, dir selbst zu widersprechen. Skaliert auf 800 Millionen Wochen-Nutzer ist das ein gesellschaftliches Experiment ohne Kontrollgruppe.
Sechs Tage vor Erscheinen dieses Newsletters hat Microsoft-Tochter GitHub die Pro-Anmeldungen pausiert. Bestehende Kunden bekommen verschärfte Token-Limits. Das Top-Modell Opus 4.7 ist nur noch im teureren Pro+-Plan. Begründung: Die Nutzung sei explodiert, einzelne User generierten Kosten weit über ihrem Monatsabo.
Am 23. April verkündete Meta, 10 Prozent der Belegschaft zu entlassen. 8.000 Stellen. Begründung: Effizienz, um die 135 Milliarden Dollar AI-Investitionen 2026 zu finanzieren. Vorjahr: 72 Milliarden.
Microsoft 365 Copilot und Notion Business haben ihre Preise gerade um 20 bis 37 Prozent angehoben. AI ist das neue teure Add-on, nicht mehr das billige Magic.
Das ist nicht die normale Pricing-Optimierung. Das ist der Anfang vom Ende der Subventionsphase.
Jason Koebler von 404 Media schreibt dazu in einem Artikel vom 24. April: Damit die AI-Industrie nicht in eine Bubble crasht, müsse mehrerlei gleichzeitig passieren. Eine erneuerbare Energie-Revolution. Massiv mehr Chip-Produktion. Modelle, die dramatisch effizienter werden. Und AI muss sich tatsächlich in vielen Sektoren als zuverlässig nützlich erweisen, nicht nur als Demo-Magie.
Wenn auch nur einer dieser Punkte kippt, kippt das ganze Modell.
Letzte Woche stand hier: AI-Token-Preise sind subventioniert, der Markt ist Uber im Frühstadium. Heute liegt die Rechnung auf dem Tisch. GitHub ist das erste Mainstream-Produkt, das öffentlich sagt: Die Nutzungsmuster passen nicht zum Preismodell. Meta entlässt 10 Prozent, um sich AI-Compute leisten zu können. Microsoft verlangt 37 Prozent mehr. Wer in den letzten zwölf Monaten Personal durch Tokens ersetzt hat, hat eine Wette platziert. Die Wette war: Die heutigen Preise bleiben. Sie bleiben nicht. Personal lässt sich nicht zurückrollen wie ein Software-Lizenzmodell.
Am 21. März haben zwei Wirtschaftswissenschaftler einen Aufsatz auf arXiv gestellt. Brett Hemenway Falk von der University of Pennsylvania. Gerry Tsoukalas von der Boston University. Titel: The AI Layoff Trap.
Was sie machen, ist nicht Meinung, sondern Mathematik. Ein formales Modell. Kompetitive Märkte. Firmen, die rational handeln. Daraus leiten sie ein Theorem ab.
Das Theorem geht so. Firma A automatisiert Stellen. Firma A spart Lohnkosten. Die entlassenen Arbeiter haben weniger Einkommen. Sie kaufen weniger. Das spüren Firmen B, C, D in ihrer Nachfrage. Firmen B, C, D müssen jetzt selbst automatisieren, sonst sterben sie an der schwachen Nachfrage. Sie entlassen. Das schwächt die Nachfrage weiter. Die Schleife dreht sich.
Falk und Tsoukalas nennen das eine Demand-Externalität. Die einzelne Firma kassiert die volle Kostenersparnis. Aber sie trägt nur einen winzigen Bruchteil des Schadens, den ihre Entlassungen am Gesamtmarkt anrichten. Den Rest trägt der Wettbewerb. Das macht Automatisierung individuell rational und kollektiv selbstmörderisch.
Der bittere Teil kommt jetzt. Die Autoren testen alle gängigen Gegenmittel durch. Mehr Wettbewerb? Verschärft das Problem. Bessere AI? Auch. Lohnanpassung nach unten? Hilft nicht. Reskilling? Hilft nicht. Universal Basic Income? Hilft nicht. Kapitalsteuer? Hilft nicht. Mitarbeiterbeteiligung? Hilft nicht.
Die einzige Lösung, die in ihrem Modell funktioniert, ist eine Pigou-Steuer auf Automatisierung. Also: Wer einen Menschen durch Maschine ersetzt, zahlt eine Abgabe in Höhe des sozialen Schadens. Politisch zur Zeit nicht realistisch. Mathematisch alternativlos.
Was bei jeder einzelnen Firma völlig logisch aussieht, ist im Aggregat ökonomischer Selbstmord. Das ist die unangenehme Wahrheit, die in keiner LinkedIn-Keynote vorkommt. Du als Mittelständler kannst nicht einseitig aussteigen, weil deine Konkurrenz nicht aussteigt. Du als Konzern willst nicht aussteigen, weil die Effizienzkurve aussieht wie Heroin. Du als Politiker willst nicht regulieren, weil dann die Investoren nach Texas gehen. Drei Akteure, die alle wissen, was passiert, und die alle weitermachen, weil ihnen die individuelle Logik die Wahl abnimmt. Das ist keine Disruption. Das ist ein Koordinationsproblem.
Hormuz: doppelt blockiert. Iran sperrt seit dem 28. Februar mit seiner Mosquito Fleet aus Schnellbooten und Seeminen die Durchfahrt. Seit dem 13. April fährt parallel die US Navy eine Blockade gegen iranische Häfen. Beide Seiten kapern Schiffe. Bloomberg titelte heute: "Hormuz Double Blockade Halts Ship Traffic, Dims Hope for the Economy". Vor dem Krieg liefen 20 Prozent des globalen Öls durch diese Meerenge.
Pakistan: Iranischer Außenminister Abbas Araghchi war Donnerstag in Islamabad. Witkoff und Kushner sollten Samstag für die zweite Runde der Islamabad Talks nachreisen, nach dem 21-Stunden-Fehlschlag vom 11. April. Stattdessen ist Araghchi am Freitag wieder abgeflogen. Trump hat gestern den US-Trip gecancelt. Begründung: zu lange Reisedauer, Verhandlungen jetzt am Telefon. Iran sagt, ein direktes Treffen sei ohnehin nie geplant gewesen.
Inflation: Destatis meldet im März 2,7 Prozent. Bundesbank-Prognose 2026: 2,1 Prozent. Aber: Wenn die Doppel-Blockade bleibt, kippt die globale Düngemittelversorgung. Düngemittel ist energieintensiv. Energie läuft durch Hormuz. Mehrere Worst-Case-Modelle gehen dann von zweistelligen Inflationsraten aus. Der Lebensmittelhandel preist die entsprechenden Versorgungslücken bereits ein.
Zaki, GitHub und Falk beschreiben dieselbe Mechanik in drei verschiedenen Systemen. Wer eine Variable optimiert und die Rückkopplung wegblendet, kassiert den Vorteil sofort und schiebt die Kosten an die Zukunft oder die Konkurrenz. Macht ohne Empathie. Effizienz ohne Kostenwahrheit. Automatisierung ohne Nachfrageblick. Drei Wege, sich selbst aus dem System zu rationalisieren.
Die Frage diese Woche ist nicht, ob du AI nutzt. Es ist, ob du noch ein System hast, das dir widerspricht. Eine KI, die auf Bestätigung trainiert ist, tut es nicht. Eine Belegschaft, die du gerade entlassen hast, auch nicht. Conants Antwort darauf hatte eine Eigenschaft, die heute überall fehlt: Sie tat weh. Selbstkorrektur passiert nicht freiwillig.
Du hast ein Thema, das dich umtreibt? Schreib mir direkt: baierstephan@gmail.com
Den Business ohne Bullshit Newsletter gibt es jede Woche. Peace.
— Stephan
P.S. Du folgst mir noch nicht? Instagram · TikTok · LinkedIn