KI im Unternehmen: Mehr Effizienz oder teurer Workslop?

Unternehmen investieren in generative Künstliche Intelligenz, um Effizienz und Innovationskraft zu steigern. Doch zunehmend zeigt sich, dass der unkritische Einsatz solcher Systeme neue Risiken birgt – für Produktivität, Informationssicherheit und Compliance. Das Phänomen des sogenannten „Workslop“ verdeutlicht, wie scheinbar effiziente KI-Anwendungen unbeabsichtigt Mehraufwand und Kosten verursachen können.

KI-generierte Arbeitsinhalte als Müll?

Obwohl die Investitionen in generative KI-Systeme Schätzungen zufolge bereits bis zu 40 Milliarden US-Dollar betragen, berichten rund 95 Prozent der Organisationen von keinem messbaren positiven Einfluss auf ihre Geschäftsergebnisse. Eine im Harvard Business Review veröffentlichte Untersuchung von BetterUp Labs in Zusammenarbeit mit dem Stanford Social Media Lab benennt einen zentralen Grund: das Phänomen des sogenannten „Workslop“.

Workslop wird dabei definiert als KI-generierter Arbeitsinhalt – etwa Texte, Berichte oder Präsentationen –, der zwar schnell erstellt wurde und auf den ersten Blick professionell wirkt, dem jedoch die notwendige Substanz oder der entscheidende Kontext fehlt, um eine Aufgabe sinnvoll voranzubringen. Dieser sogenannte „Arbeitsabfall“ stelle für Unternehmen ein erhebliches Risiko für Compliance und Informationssicherheit dar, da er nicht nur die Produktivität reduziere, sondern auch die interne Zusammenarbeit und das Vertrauen untergraben könne.

Die versteckten Kosten von KI-generiertem Workslop

Die Tücke des Workslop liege darin, dass er die kognitive Belastung systematisch vom Ersteller auf den Empfänger verlagere. Die Empfänger müssten in der Folge den Inhalt interpretieren, fehlenden oder falschen Kontext recherchieren, die Arbeit korrigieren oder sogar vollständig wiederholen. Laut einer Umfrage unter 1.150 US-amerikanischen Vollzeitbeschäftigten gaben 40 Prozent an, im letzten Monat solchen Workslop erhalten zu haben, wobei das Problem hauptsächlich unter Kollegen auftrete. Im Durchschnitt würden Mitarbeitende fast zwei Stunden damit verbringen, jeden Workslop-Vorfall zu bearbeiten. Diese unnötige Mehrarbeit verursache eine „unsichtbare Steuer“ von 186 Dollar pro Monat je Mitarbeitendem, was für ein Unternehmen mit 10.000 Angestellten einen jährlichen Produktivitätsverlust von über neun Millionen Dollar bedeuten kann.

Workslop als Compliance- und Reputationsrisiko

Die negativen Folgen beschränken sich der Untersuchung zu Folge nicht nur auf die Finanzen, sondern betreffen auch Compliance, Teamgeist und die Integrität der Arbeitsergebnisse. Workslop schade auch der Zusammenarbeit. Rund die Hälfte der Befragten beurteilten Kollegen, die Workslop versenden, als weniger kreativ, fähig und zuverlässig, und 42 Prozent empfanden sie als weniger vertrauenswürdig. Ein Drittel der Betroffenen gab an, künftig weniger mit dem Absender zusammenarbeiten zu wollen. Stellt man sich KI-Tools metaphorisch als Flugzeug vor, so kann man dieses als Pilot oder Passagier nutzen. Die Studienautoren ordnen danach die Verursacher von Workslop oft den „Passagieren“ zu, die KI primär zur Arbeitsvermeidung und als Abkürzung nutzen. Im Gegensatz dazu würden Piloten die KI zur Kreativitätssteigerung verwenden.

Die wachsende KI-Risikolandschaft

Diese Problematik fügt sich nahtlos in die wachsende Risikolandschaft des KI-Einsatzes ein und unterstreicht die Notwendigkeit robuster Compliance-Maßnahmen. Workslop steht in engem Zusammenhang mit den bekannten Risiken von Halluzinationen und Bias. Während Halluzinationen auf falschen Fakten beruhen, beruht Workslop auf substanzarmen oder kontextlosen Inhalten, die dennoch den Anschein von Professionalität erwecken. Aufgrund der Halluzinationen und zunehmendem Webzugriff verbreiten KI-Chatbots vermehrt Falschinformationen. Ein Trend, der das Risiko von Reputationsschäden und Fehlentscheidungen weiter erhöht.

Zugleich zeigen Studien auch die Gefahr des Kompetenzverlusts (Deskilling) bei übermäßiger Abhängigkeit von (KI-)Technologie. Beobachtungen aus dem Gesundheitswesen zeigen, dass Fachkräfte nach routiniertem KI-Einsatz ihre diagnostische Sicherheit ohne KI teilweise einbüßen. Der sogenannte Automationsbias – das übermäßige Vertrauen in maschinelle Ergebnisse – verstärkt diesen Effekt. Ein hohes Vertrauen in generative KI geht nachweislich mit einer geringeren Ausübung kritischen Denkens einher.

Bedeutung für Unternehmen

Undifferenzierte Vorgaben zum KI-Einsatz führen zu undifferenziertem Handeln. Wenn Führungskräfte den Einsatz generativer KI pauschal befürworten, fördern sie unter Umständen ein unkritisches Nutzungsverhalten. Infolgedessen können Mitarbeitende Ergebnisse ungeprüft übernehmen oder dort anwenden, wo KI nicht geeignet ist. Generative Systeme sind kein Ersatz für fachliche Beurteilung oder kritisches Denken, sondern benötigen klare Leitplanken und Feedback, um qualitativ verwertbare Resultate zu liefern. Jede Arbeitsleistung – ob menschlich oder KI-basiert – sollte einem Qualitätsmanagement unterliegen. Auch Menschen machen Fehler, doch KI-Resultate wirken oft schneller, vollständiger und überzeugender, als sie tatsächlich sind. Gerade dieser trügerische Ersteindruck erfordert Prüfprozesse und klare Verantwortlichkeiten im Umgang mit KI-generierten Inhalten.

Die Geschäftsführung oder Führungskräfte müssen daher eine klare KI-Strategie definieren und KI als kollaboratives Werkzeug positionieren, nicht als Abkürzung zur Arbeitsvermeidung. Eine zentrale Maßnahme ist die Etablierung kontinuierlicher Weiterbildung. Nur so kann die Pflicht zur Sicherstellung ausreichender KI-Kompetenz nach Artikel 4 der KI-Verordnung erfüllt werden. Gleichzeitig kann damit das kritische Denken gestärkt werden, welches zur Verifikation und Integration von KI-Ergebnissen notwendig ist. Organisationen sollten alle Maßnahmen zur Sicherstellung der KI-Kompetenz gut dokumentieren, um jederzeit Nachweise über die Erfüllung dieser regulatorischen Anforderungen erbringen zu können.

Fazit

Der Workslop-Bericht macht deutlich, dass KI im Unternehmen nur dann zur erwarteten Wertschöpfung führen kann, wenn ihre Nutzung strategisch, kompetent und mit klaren Leitplanken erfolgt. Führung bedeutet in diesem Kontext, Orientierung zu schaffen durch Richtlinien, Schulung und eine Unternehmenskultur, die Qualität über Schnelligkeit stellt. Nur wer den Einsatz von KI bewusst steuert und prüft, kann ihr Potenzial rechtssicher und wertschöpfend nutzen.

Unsere Expertinnen und Experten unterstützen Sie mit unseren KI-Beratungsleitungen, von der Einhaltung der europäischen KI-Verordnung über Datenschutz-Compliance bis hin zur Schulung Ihrer Mitarbeiter, um rechtssichere KI-Compliance in Ihrem Unternehmen zu gewährleisten.

Der „KI-Beauftragte“

Ihre Lösung für rechtssichere KI-Compliance

Wir bieten Unternehmen eine umfassende Lösung für die rechtlichen und regulatorischen Herausforderungen, die der Einsatz von KI mit sich bringt. 

Jetzt unverbindliches Angebot anfordern