In der Welt der Technologie von 2025 zeigt sich ein besorgniserregender Trend: Unternehmen, die an vorderster Front der KI-Entwicklung stehen, entlassen tausende Mitarbeiter und ermutigen dieselben Menschen, Trost bei der Technologie zu finden, die sie ersetzt hat. Diese Entwicklung wirft Fragen zur Rolle von Technologie im Arbeitsplatz und zur menschlichen Seite von Unternehmensentscheidungen auf.
Ein aktuelles Beispiel bietet die Gaming-Abteilung von Microsoft, wo tausende Stellen abgebaut wurden. Inmitten dieser Entlassungswelle schlug Matt Turnbull, ein Executive Producer bei Xbox Game Studios Publishing, auf LinkedIn vor, dass die Betroffenen KI-Tools wie ChatGPT und Copilot nutzen sollten, um mit den emotionalen und logistischen Folgen umzugehen. „Diese Zeiten sind wirklich herausfordernd, und wenn Sie sich in einer Entlassungssituation befinden oder sich leise darauf vorbereiten, sind Sie nicht allein und müssen es nicht alleine durchstehen“, schrieb Turnbull.
In seinem Post, der inzwischen gelöscht wurde, aber von einigen Plattformen archiviert wurde, bot Turnbull sogar Vorlagen für Gesprächseröffnungen mit der KI an. Diese Vorlagen deckten verschiedene Kategorien ab, von Karriereplanung über Unterstützung bei Lebensläufen bis hin zu emotionaler Klarheit. Trotz der möglicherweise nützlichen Natur dieser Vorlagen bleibt der bittere Beigeschmack, dass die Vorschläge von einer Führungsfigur des Unternehmens kommen, das für die Entlassungen verantwortlich ist.
Dieser Ansatz, der von Microsofts Investition in OpenAI profitiert, zeigt die Doppelmoral der Tech-Industrie: Die Branche, die Jobs automatisiert, positioniert ihre Produkte gleichzeitig als Lösung für die von ihr verursachten emotionalen Schäden. Der Einsatz von KI als emotionale Stütze wirft die Frage auf, ob echte menschliche Unterstützung durch skalierbare, aber unpersönliche Technologie ersetzt werden kann. Während KI-gestützte Tools theoretisch in der Lage sind, Lebensläufe zu überarbeiten und bei Karrierefragen zu beraten, bleibt unklar, ob sie in der Lage sind, die menschliche Würde und das Bedürfnis nach wirklicher menschlicher Verbindung in Krisenzeiten zu respektieren.
Die Implikationen dieser Entwicklung gehen weit über das individuelle Schicksal der Betroffenen hinaus. In der Vergangenheit umfassten Outplacement-Services eine persönliche Note, die durch menschliche Karriereberater vermittelt wurde. Mit der zunehmenden Leistungsfähigkeit von LLMs (Large Language Models) wächst der Druck auf Unternehmen, auch die Unterstützung nach Entlassungen zu automatisieren. Doch was geht dabei verloren? Was geschieht mit der menschlichen Würde und der Möglichkeit, echte Verbindungen zu knüpfen, wenn die emotionale Unterstützung von einem Chatbot kommt?
Turnbull selbst erkannte das Spannungsfeld in seiner Nachricht an und betonte, dass kein KI-Tool die eigene Stimme oder die eigenen Erfahrungen ersetzen könne. Dennoch sieht er in den Tools eine Möglichkeit, schneller und mit mehr Klarheit aus der Krise herauszukommen. Diese Sichtweise spiegelt einen kulturellen Wandel in der Tech-Branche wider, in der Erholung zunehmend privatisiert und automatisiert wird.
Am Ende bleibt jedoch die Erkenntnis, dass Schmerz kein Produktivitätsproblem ist und eine Entlassung kein User-Experience-Problem. Wenn die einzige Unterstützung, die ein Arbeiter erhält, von einem Chatbot kommt, der auf dem riesigen Archiv von Trauma im Internet trainiert wurde, stehen wir vor einer düsteren Zukunft. Eine Zukunft, in der nicht nur Arbeitsplätze, sondern auch menschliche Erfahrungen und Emotionen als überflüssig betrachtet werden.