Gastbeitrag

Künstliche Intelligenz: Was kommt da noch auf uns zu?

07.01.2026

Die Künstliche Intelligenz (KI) entwickelt sich rasant. Wo steht sie heute? Welche Aufgaben kann sie künftig übernehmen? Und welche Grenzen bleiben bestehen?

Wofür lässt sich die Künstliche Intelligenz nutzen? Inwieweit wird sie unser Leben und die Arbeitswelt verändern? Das ist zurzeit noch weitgehend unklar. Entsprechend viele Projekte finden aktuell in Unternehmen statt, um dies auszuloten. Glaubt man den Veröffentlichungen zum Thema Künstliche Intelligenz, dann gewinnt man oft den Eindruck, durch die verstärkte KI-Nutzung werde sich die Arbeitswelt fundamental verändern – insbesondere dann, wenn sich die KI mit Robotik und Automatisierung zur sogenannten KIRA verbindet.

Doch noch ist es nicht so weit, betont Georg Kraus, Geschäftsführer der Change- und Transformationsberatung Kraus & Partner, Bruchsal. Zwar habe sich das Erstellen von Texten, Bildern und Gesprächsprotokollen mit ChatGPT und Copilot zumindest in größeren Unternehmen inzwischen zum Standard entwickelt, doch von einem großflächigen und funktionsübergreifenden KI-Einsatz könne heute noch kaum die Rede sein. Vielmehr würden KI-Tools und -Systeme aktuell noch primär zum Effektivieren einzelner (Teil-)Prozesse und Aufgaben genutzt – in der Regel nur in ausgewählten Bereichen wie zum Beispiel

  • im Marketing und Vertrieb sowie
  • im Controlling und in der Logistik.

Dadurch sinke zuweilen zwar die Zahl der benötigten Mitarbeitenden, und an die verbliebenen würden teils neue Anforderungen gestellt, doch die KI mache die Ressource Mensch keineswegs überflüssig.

Menschliche Verantwortung bleibt unersetzlich

Ähnlich sieht dies die Managementberaterin Barbara Liebermeister, Wiesbaden, deren Institut für Führungskultur im digitalen Zeitalter (IFIDZ) auf das Themengebiet „Führung im digitalen Zeitalter“ spezialisiert ist. Für sie ist zum Beispiel die Diskussion darüber, ob menschliche Führung im KI-Zeitalter noch nötig sei, eine Schimäre, denn Führung bedeute stets auch, Verantwortung zu übernehmen – „für Menschen, Entscheidungen und deren Konsequenzen“. Und genau hier liege für Liebermeister die Grenze von KI: „Maschinen können keine Verantwortung übernehmen, weil sie weder verstehen, was Verantwortung bedeutet, noch ihr Handeln rechtfertigen können“.

Ein entscheidender Grund hierfür sei, so Liebermeister: „KI-Systeme haben kein Bewusstsein. Sie ‚wissen‘ nicht, dass sie existieren, und reflektieren ihre Entscheidungen nicht.“ Verantwortung setze jedoch „das Wissen um die eigenen Handlungen und deren Konsequenzen“ voraus.

So überlege zum Beispiel eine Führungskraft, bevor sie handelt:

  • Welche Auswirkungen hat meine Entscheidung?
  • Was passiert mit den betroffenen Menschen?
  • Ist meine Entscheidung moralisch vertretbar?

„KI-Systeme hingegen folgen nur Algorithmen. Sie berechnen Wahrscheinlichkeiten, erkennen Muster und optimieren Entscheidungen auf Basis statistischer Zusammenhänge: Doch sie verstehen nicht, was richtig oder falsch ist.“

Entscheidungsintelligenz ist (noch) menschlich

Den heutigen KI-Systemen fehlt laut Georg Kraus unter anderem noch die erforderliche „Decision Intelligence“, also Entscheidungsintelligenz, um Menschen nicht nur im Führungsbereich zu ersetzen. Zwar seien moderne, generative KI-Systeme zunehmend fähig, sich wiederholende Entscheidungen automatisiert zu treffen. Doch ihre Entscheidungsfähigkeit stoße an Grenzen, wenn es nötig sei, neue Kontexte zu erschließen bzw. unvorhergesehene Situationen und Konstellationen zu durchdringen – was in einer von permanenter Veränderung geprägten Welt immer häufiger der Fall sei. Dann sei ein szenariobasiertes Denken für die Entscheidungsfindung unerlässlich. Das könnten die KI-Systeme jedoch noch nicht. Sie könnten zwar Wahrscheinlichkeiten berechnen, verstünden aber nicht, welche Szenarien realistisch oder brisant seien. Sie erkennen zudem nicht intuitiv, wann ein Risiko trotz guter Datenlage nicht tragbar ist – „ein erfahrener Mensch“, so Kraus, „kann das“.

Hinzu komme laut Liebermeister: Eine KI hat kein „Bauchgefühl“. Sie hat keine innere Stimme, die ihr im Bedarfsfall sagt: „Moment mal, da stimmt was nicht.“ Sie hat zudem kein Gewissen und nicht die erforderliche menschliche Empathie, die ihr zuweilen sagt: „Stopp, das können oder dürfen wir nicht tun.“ Sie spult schlicht ab, was die Daten ihr vorgeben – ohne jegliches Mit-, Schuld- und Verantwortungsgefühl, „weshalb wir ihr gewisse Aufgaben nicht übertragen dürfen“.

KI simuliert zunehmend Empathie

Inwieweit manche Menschen und Organisationen ein solches Gewissen und eine solche Empathie haben, darüber lässt sich – wenn man ihr Treiben beobachtet – streiten. Doch nicht deshalb stimmt die Wiener Wirtschaftspsychologin Sabine Prohaska, die Unternehmen beim Einführen einer neuen Lernkultur und Kultur der Zusammenarbeit unterstützt, obigen Aussagen nur zögerlich zu. Sie verweist darauf, dass die KI zwar nicht wirklich empathisch sei, moderne KI-Systeme jedoch menschliche Emotionen erkennen und mit dem jeweiligen Gegenüber „simulierte empathische Interaktionen“ führen könnten – also solche, die empathisch wirken.

Sie verweist zudem auf die enorme Lernfähigkeit der generativen KI, weshalb heute in Fachkreisen schon darüber diskutiert wird, ob es in naher Zukunft zum Beispiel den Beruf des Trainers und Coaches überhaupt noch geben wird. Zumindest werde sich deren Funktion stark wandeln. Diese Vermutung legt, so Prohaska, die Beobachtung nahe, dass heute bereits KI-gestützte Online-Trainings- und -Coaching-Programme Funktionen übernehmen wie

  • den Lernenden bzw. Coachees ein Feedback zu geben und
  • sie zum Weitermachen zu motivieren

Funktionen, bei denen man vor einiger Zeit noch sagte, sie setzten ein menschliches, zur Empathie fähiges Gegenüber voraus. Dies lässt erahnen, so Prohaska, inwieweit mittel- und langfristig KI-Systeme auch Aufgaben übernehmen könnten, die wir heute noch als originär menschlich erachten. Faktisch wisse man dies aber noch nicht, denn dies hänge – außer von der technologischen Entwicklung – auch von der Entwicklung des unser Denken und Handeln prägenden Wertesystems ab. Und auch dieses befinde sich zurzeit im Wandel.

KI wird immer menschenähnlicher

Dies auch vor dem Hintergrund, dass wir Menschen im Umgang mit KI die Erfahrung sammeln: Sie kann zunehmend nicht nur menschliche Empathie simulieren, sondern auch menschenähnlich kommunizieren. Deshalb stellt sich die Frage: Wenn KI-Systeme in naher Zukunft auch noch die Stimmen von Menschen sowie bei Videosessions deren Gestik und Mimik interpretieren können – können sie dann nicht auch viele Gespräche, wie zum Beispiel Verkaufs- und Mitarbeitendengespräche, führen, von denen man heute noch sagt, diese setzten einen menschlichen Verkäufer bzw. eine menschliche Führungskraft voraus?

Projekte, um dies auszuloten, finden zurzeit bereits in vielen Unternehmen statt. So berichtet Georg Kraus zum Beispiel von Projekten mit dem Ziel: Alle Mitarbeitenden eines Unternehmens, die an einem Online-Qualifizierungsprogramm teilnehmen, erhalten, wenn sie dort aktiv waren, von einem Bot automatisch ein stimulierendes Feedback – jedoch kein anonymes, sondern eines, das scheinbar vom Bereichsleiter oder gar vom Vorstand kommt.

Fake auf dem Vormarsch

Zudem berichtet er von KI-Programmen, die

  • auf Businessportalen wie LinkedIn automatisiert die aus Unternehmenssicht relevanten Entscheider identifizieren,
  • diesen automatisiert im Namen einer passenden Kontaktperson in der eigenen Organisation eine Kontaktanfrage senden und
  • diesen Personen nach deren Annahme zwecks Beziehungsaufbau ebenfalls automatisiert, wenn sie etwas im Netz posten, stets ein Feedback geben – sei es in Form eines Likes, eines Kommentars wie „interessanter Beitrag“ oder einer ausführlichen scheinbar persönlichen Nachricht des Account-Inhabers, deren Autor jedoch faktisch ein Bot ist.

Das heißt, die Account-Inhabenden führen mit der jeweiligen Zielperson faktisch eine Fake-Kommunikation, die menschliches Einfühlungsvermögen und persönliche Wertschätzung simuliert – mit dem Ziel, eine Beziehung mit der betreffenden Person aufzubauen.

Diese Art der Kommunikation wird künftig immer stärker die Kommunikation im digitalen Raum prägen, befürchtet Georg Kraus. Eine Befürchtung, die nicht unbegründet ist, wenn man daran denkt, wie viele Bots bzw. nicht-menschliche Trolle heute schon in Diskussionsforen, Newsgroups, Chatrooms und anderen digitalen Plattformen ihr Unwesen treiben, die vorgeben: Ich bin ein Mensch.

Der Autor

Der Autor

Bernhard Kuntz ist Inhaber der PR- und Marketing-Agentur Die PRofilBerater, Darmstadt (www.die-profilberater.de). Er ist unter anderem Autor des Bildungs- und Beratungsmarketing-Klassikers „Die Katze im Sack verkaufen: Wie Sie Bildung und Beratung mit System vermarkten“ – offline und online“.

Schaltfläche "Zurück zum Anfang"
logo

Newsletter abonnieren

Sichern Sie sich Ihren Wissensvorsprung vor allen anderen in der Branche und bleiben Sie mit unserem Newsletter bestens informiert.


Zum Newsletter