Ist KI-Einsatz in der Vergütungsgestaltung eine gute Idee?
- Stefanie Hornung, Nadine Nobile & Sven Franke
- 25. Feb.
- 7 Min. Lesezeit
Aktualisiert: 26. Feb.
Künstliche Intelligenz liefert neue Heilsversprechen – auch für Personalthemen wie Vergütung. Doch ist es eine gute Idee, ein hochsensibles Thema wie das Gehalt einer KI anzuvertrauen? Wir haben uns mit zentralen Fragen rund um den KI-Einsatz bei der Gestaltung und Umsetzung von Vergütung beschäftigt und geben Antworten aus New-Pay-Sicht.

Warum ist KI in der Vergütung inzwischen ein so großes Thema?
Drei Dinge kommen zusammen:
Erstens nährt KI aktuell in allen Bereichen große Hoffnungen auf Effizienzgewinne.
Zweitens ist generative KI sehr niedrigschwellig –Geschäftsführung, HR und Führungspersonen, aber auch Betriebsräte und Mitarbeitende können sich mithilfe von KI leicht ausrechnen, was man vermeintlich in bestimmten Rollen oder Funktionen verdient.
Und drittens wächst der Druck, Gender Pay Gaps zu schließen (die Umsetzung der EU-Entgelttransparenzrichtlinie steht Anfang Juni 2026 an) – eine Aufgabe, bei der sich Unternehmen Hilfe von KI erhoffen. HR-Teams haben viele Themen auf der Agenda und klagen über fehlende Kapazitäten, um das Vergütungssystem aus- und umzugestalten.
Was ist bei der Nutzung von KI generell zu beachten?
Aus New-Pay-Sicht spricht nichts gegen den Einsatz von KI, wir befürworten ihn und nutzen selbst verschiedene Tools. Doch auf das Wie kommt es an: Wer größtmögliche Fairness schaffen möchte, sollte nicht vergessen: „Fairness ist nicht das Ergebnis einer Rechenoperation, sondern ein soziales Projekt“, wie Prof. Martin Kersting so treffend sagt. Dabei kommt es auf alle New-Pay-Dimensionen an, aber insbesondere auf Partizipation, Transparenz und Nachvollziehbarkeit. Im Sinne von Wir-Denken, das eigene Werte beinhaltet, sollten sich Unternehmen gut überlegen, wem sie die Verantwortung für ihr Vergütungssystem übertragen.
Wir empfehlen Euch für die Nutzung von KI bei der Vergütung drei Leitsätzen zu folgen:
Verantwortung bleibt beim Menschen. KI kann Entscheidungen vorbereiten, Gehaltsdaten strukturieren, Vorschläge machen. Aber Entscheidungen über Eckpfeiler des Vergütungssystems und seine Anwendung müssen bei verantwortlichen Personen liegen.
Kompetenz ist Pflicht, nicht Kür. Es braucht Menschen, die Ergebnisse prüfen können: In HR, Finance, Datenschutz, unter Führungskräften und im Betriebsrat.
Fairness ist ein sozialer Prozess. KI kann Ungleichheiten sichtbar machen und Optionen simulieren. Fairness entsteht durch klare Kriterien, Beteiligung, Nachvollziehbarkeit – und Raum für Korrekturmöglichkeiten.
Welche Vorteile bietet KI bei der Vergütungsgestaltung?
Der größte Nutzen ist nicht „die perfekte Lösung“, sondern bessere Vorbereitung: KI kann Daten sortieren, Muster sichtbar machen und Argumentationslinien strukturieren – damit Menschen schneller zu guten Entscheidungen kommen.
Als vorbereitende Instanz bietet KI viele Vorteile: KI kann Erstvorschläge, die zur Diskussion stehen, vereinheitlichen – etwa wenn Ihr Funktionsbeschreibungen erstellt oder Funktionen im Grading bewertet. Spannend wird es auch, wenn man mit KI Muster in der Anwendung des Vergütungssystems analysiert. In welchen Rollen, Teams oder an welchen Standorten gab es stärkere Gehaltsentwicklungen als anderswo? Ein guter Aufhänger für bereichsübergreifende Gespräche mit Führungskräften, wie sie das Vergütungssystem oder bestimmte Wertbeiträge verstehen.
Die Vorbereitung für bestimmte Gehaltsentscheidungen kann mit KI deutlich schneller gehen – zum Beispiel, wenn man viele Rollen oder Funktionen neu auf Kriterien nach der EU-Entgelttransparenzrichtlinie prüfen will. Sie kann auch als Erste Hilfe bei Standardfragen dienen: Als internes Info-System („Was ist ein Gehaltsband?“, „Welche Kriterien zählen für Entwicklung im Band?“) kann KI HR entlasten – solange klar ist, dass das eine allgemeine Aussage ist und keine verbindliche Zusage für ein bestimmtes Gehalt.
Mit eigenem Know-how kann KI externe Unterstützung teilweise ersetzen – dann liegt die Verantwortung aber auch bei Euch. Wenn Ihr selbst eine Lösung entwickelt, könnt Ihr Fehler schneller korrigieren und müsst nicht auf das nächste Release warten.
Wichtig ist dabei immer: KI sollte nie die eigene Expertise ersetzen. Mit KI im Einsatz wird diese sogar noch wichtiger. Denn es ist wie beim Kochen: Die besten Köche nutzen Maschinen, aber sie wählen die Zutaten gezielt selbst aus und verbessern damit ihre eigene Kochkunst.
Wie wird KI in der Vergütung schon genutzt?
Inzwischen basieren die meisten Lösungen am Markt auf generativer KI (Large Language Models), es gibt aber auch Machine-Learning-Modelle, die mit speziellen Daten von Unternehmen lernen. Bei den Anwendungen in der Vergütung dominieren drei Felder:
Funktionsbeschreibung, -bewertung (Grading) & Jobarchitektur: Einige Unternehmen und Vergütungsberatungen experimentieren damit, dass KI Stellenbeschreibungen (oft Freitext) ausliest und ein Level in der Jobarchitektur vorschlägt – idealerweise mit Abgrenzung nach oben und unten (Begründung: Warum eher das höhere oder niedrigere Level?). Das bildet teilweise auch Tarif- oder Punktelogiken ab. Praktisch heißt das: Unternehmen geben der KI dafür ihre Kriterien (z. B. Verantwortung, Einfluss, Komplexität), Beispiel-Bewertungen und ein paar Grenzfälle. Dann kann sie entweder regelbasiert argumentieren („weil Kriterium X in Ausprägung Y erfüllt ist…“) oder referenzbasiert arbeiten („die vier ähnlichsten Rollen waren…, daher…“).
Gehaltsbänder, Benchmarking, Szenarien: KI unterstützt beim Zuschnitt von Bandbreiten, beim Vergleichen mit Marktdaten und bei „Was-wäre-wenn“-Fragen (Kosten einer Reorg, neuer Standort, neue Rollen).
Pay-Equity-Analysen & Reporting: Für die Umsetzung der EU-Entgelttransparenz-Richtlinie sind Tools gefragt, die Gender-Pay-Gaps analysieren und Berichte vorbereiten – teilweise bis hin zu automatisierten Ausreißer-Checks und Compliance-Workflows. Wichtig: KI kann Lücken aufzeigen. Wie Unternehmen sie schließen, steht auf einem anderen Blatt.
Schon jetzt ist zunehmend eine Art KI-Spirale zu beobachten: Nicht nur Arbeitgeber, sondern auch Mitarbeitende und Betriebsrat nutzen KI, etwa, um sich auf Vergütungsgespräche vorzubereiten. Das kann bedeuten, dass Arbeitgebende oder HR die alleinige Deutungshoheit verlieren. In Zukunft werden Gehaltsgespräche sich ändern – das muss nicht unbedingt schlecht sein, wenn Ihr gut kommuniziert und Eure Vergütungsentscheidungen konsistent erklären könnt.
Welche Risiken bringt die Nutzung von KI mit sich – speziell bei der Vergütung?
Die größten Risiken sind aus unserer Sicht allgemeingültig für KI-Anwendungen, bei der Vergütung aber besonders eklatant:
Scheinobjektivität: Die Ergebnisse der KI scheinen auf den ersten Blick meistens plausibel – vor allem für diejenigen, die wenig Vergütungsexpertise haben. Ein Beispiel: Wenn wir Ausprägungen von Kriterien mit Organisationen diskutieren, tun sich viele schwer, diese positiv zu formulieren – sie neigen dazu, zu beschreiben, was Mitarbeitenden in bestimmten Ausprägungsstufen noch fehlt. Wenn nun die KI so etwas vorschlägt, hinterfragen sie die Vorgehensweise möglicherweise nicht.
Prozessabkürzung: KI kann bei der Stellenbewertung nur mit den Beschreibungen arbeiten, die da sind. Was zwischen den Zeilen steht oder die Organisation informell lebt, entgeht ihr komplett. Wenn Organisationen aber schon einen Vorschlag haben, können sie dazu neigen, ihre Fachleute nicht einzubeziehen. Wichtiges Wissen, das nicht in den Daten enthalten ist, fließt dann gar nicht mehr ein. Es kommt zu Prozess-Abkürzungen – nach dem Motto „ChatGPT hat das mit 6 bewertet“, das wird schon stimmen. Das kappt den Aushandlungsprozess und verhindert wahrgenommene Fairness, die im Dialog entsteht.
Shit in, shit out: Generative KI nutzt historische Daten zum Training. Sie greift also auf allgemeine Informationen aus bisherigen Stellenbeschreibungen, Bewertungen und Gehaltsentscheidungen zurück – ohne dass Ihr das aktiv beeinflussen könnt. Wenn darin Biases oder Inkonsistenzen stecken, kann KI sie sehr effizient fortschreiben. Auch unternehmensspezifische Daten, die Ihr zur Analyse bereitstellt, kann Diskriminierungen enthalten. Häufig fehlt auch die einheitliche Basis, Vergütungsdaten sind oft wie Kraut und Rüben. Schlechte Stellenbeschreibungen, Länder-Sonderregeln, all das kann Ergebnisse verzerren. Wer die Grundlagen nicht sauber erarbeitet, landet im Chaos.
Halluzinationen und Blackbox-Logik: KI kann zu vorgeschlagenen Lösungen – etwa bei Funktionsbewertungen – auch Begründungen liefern. Diese können jedoch unklar oder schlicht erfunden sein. Ihr könnt nicht prüfen, ob die KI dabei ausschließlich auf gewünschte Daten zugreift. Zudem antworten LLMs nicht immer identisch. Wenn Ihr aber Mitarbeitenden, Betriebsrat und anderen Organisationen, die ein berechtigtes Interesse an Gleichstellung haben, Pay Gaps erklären müsst, sollte Eure Begründung konsistent sein. Ihr müsst objektive, geschlechtsneutrale Kriterien nachweisen und könnte Euch nicht auf KI-Ergebnisse berufen.
Reverse Prompting: Führungskräfte wünschen sich für ihren eigenen Verantwortungsbereich immer besonders gute Einstufungen im Vergütungssystem – schließlich wertet das auch ihre Arbeit auf. Die Versuchung ist groß, Rollen und Funktionen so zu beschreiben, dass die gewünschte Bewertung herauskommt. Mit Reverse Prompting können sie Ergebnisse beeinflussen.
Der problematische Rest: Selbst, wenn eine KI oft richtig liegt, bleibt die Frage: Was passiert bei den übrigen Fällen? In der Vergütung reichen 90 Prozent Trefferquote nicht, wenn die falschen 10 Prozent harte Konflikte auslösen.
Welche rechtlichen und regulatorischen Risiken gibt es?
Generell kann KI-Einsatz im Personalmanagement nach dem EU AI Act als Hochrisiko-System gelten. Dann steigen Anforderungen an Dokumentation, Datenqualität, Robustheit – und an menschliche Fähigkeit, Ergebnisse zu überwachen und einzugreifen. Wer das nicht gewährleisten kann, bewegt sich rechtlich auf unsicherem Terrain. Für Datenschutzverstöße und Diskriminierung, die auf den Einsatz von KI zurückgeht, haften Arbeitgeber. Nur wenn Mitarbeitende gegen klare Regeln verstoßen – etwa indem sie eine KI-Lösung nutzen, die im Unternehmen nicht erlaubt ist – haften sie persönlich.
Folgende rechtliche Risiken sehen wir bislang zudem in speziell in der Vergütung:
Datenschutz (DSGVO): Gehaltsdaten sind hochsensibel. Unternehmen müssen sicherstellen, dass die genutzte KI-Lösung den DSGVO-Vorgaben entspricht – bei generativer KI ist das eher fraglich. Eine Anonymisierung, indem man Namen aus Gehaltslisten löscht, reicht nicht, wenn Personen über Merkmalskombinationen identifizierbar sind. Bei Funktionsbeschreibungen und Bewertungen, die nicht personenbezogen sind, ist das weniger problematisch als bei der konkreten Eingruppierung in Vergütungssysteme und dem bezahlten Gehalt, das in Entgeltberichte einfließen muss (siehe Vorgaben der EU-Entgelttransparenzrichtlinie).
EU-Entgelttransparenz: Wenn die Lohnlücke zwischen den Geschlechtern in einer Kategorie über 5 Prozent liegt und nicht objektiv erklärbar ist, sind Abhilfemaßnahmen vorgesehen. KI kann beim Rechnen helfen – ersetzt aber nicht die Aushandlung mit der Arbeitnehmendenvertretung.
Betriebsrat: Jede Nutzung von KI-Systemen löst Beteiligungsrechte des Betriebsrats aus. Auch wenn es keinen Betriebsrat gibt, sind Unternehmen nicht automatisch außen vor. Solange es keine Regelung im Unternehmen gibt, kann niemand dagegen verstoßen (siehe Haftung).
Hinweis: Das ist keine Rechtsberatung, sondern ein Orientierungsrahmen. Wer mehr zu den Dos and Don’ts beim Einsatz von KI in der Vergütung erfahren möchte, findet hier vier wichtige Punkte und eine Checkliste aus arbeitsrechtlicher Sicht von Stefan Radovanovic und Kathrin Hartmann.
Wie sollte man KI jetzt konkret nutzen?
Es braucht nicht den großen KI-Vergütungsrelaunch, wichtiger sind passende Rahmenbedingungen:
Spielregeln gemeinsam vereinbaren: Setzt Euch frühzeitig mit der Arbeitnehmenden-Vertretung zusammen und sprecht offen über Fragen, die KI-Einsatz in der Vergütung aufwirft: Welche Use Cases sind erlaubt? Welche Tools sind geeignet? Wie sind Mitarbeitende eingebunden? Man sollte alle möglichen Risiken klar benennen. Bevor Ihr startet, sollte der Betriebsrat oder die Mitarbeitenden zumindest informell zugestimmt haben und über Eure Aktivitäten im Bilde sein. Eine Betriebsvereinbarung mit konkreten Regelungen dauert unter Umständen lange, kann aber auch später kommen, wenn Ihr niemand im Unternehmen bei ersten KI-Schritten übergeht.
Zweck klären, Tools auswählen (nicht umgekehrt): Wollt Ihr mit KI Grading kalibrieren? Pay-Gaps verstehen? Führungskräfte befähigen? KI ist Mittel zum Zweck, nicht das Ziel. Wenn Ihr Tools auswählt, beschäftigt Euch auch mit den Werten, die dahinter stehen: Wer hat die KI-Lösung gebaut – in welchem Kontext und für welche Prozessschritte? Funktioniert es tatsächlich für Euch und woran merkt Ihr das? Und denkt auch an Tool-Updates. Viele Anbieter verändern ihre Modelle, ohne dass Anwender:innen jedes Detail beeinflussen können. Für Vergütung heißt das: Vorab klären (auch mit der Mitarbeitendenvertretung) wie Ihr Versionen dokumentiert, Testfälle fahrt, und was passiert, wenn sich Ergebnisse nach einem Update verändern.
Menschliche Entscheidungspunkte sichtbar definieren: In jedem Prozessschritt sollte klar sein, wer entscheidet und welche Kriterien gelten – was die KI liefert und was auch nicht.
Sensibilisieren und schulen: Mitarbeitende, die KI in der Vergütung nutzen, brauchen nicht nur KI-Expertise, sondern sollten auch das eigene Vergütungssysteme verstehen und durchdringen. Macht die Verantwortlichen vergütungsmündig.
KI als Lern- und Diskussionspartner nutzen, begleitet von Menschen. Ein pragmatischer Einstieg sind gemeinsam genutzte Prompts (z. B. ein Custom GPT wie das, das wir für Funktionsbeschreibungen nutzen) für gewünschte Anwendungen, die Ihr während der Gestaltung des Vergütungssystems oder der Analyse von Gehaltsmustern als Diskussionsgrundlage nutzt. Insbesondere in diversen Projektteams wächst Vergütungsmündigkeit durch Interaktion, indem Ihr aus unterschiedlichen Perspektiven Begriffe definiert und ein einheitliches Wording findet.
Welche zentralen Fragen sollte man vor dem KI-Einsatz beantworten?
Hier geben wir Euch eine kleine Mini-Checkliste an die Hand:
Wer hat die Entscheidungshoheit bei Vergütungsfragen?
Welche Vergütungsaspekte soll KI unterstützen?
Wer trifft die Entscheidung zum KI-Einsatz in der Vergütung – und wer sollte sonst noch einbezogen werden?
Welche Tools nutzen wir – warum und wofür genau?
Welche Daten fließen ein, wo werden sie gespeichert und wer hat Zugriff?
Können wir das Ergebnis nachvollziehbar erklären?
Welche Bias-Risiken stecken in unseren historischen Daten?
Wie verhindern wir Manipulation und Reverse Prompting?
Wie sichern wir Reproduzierbarkeit von Gehaltsprozessen?
Wie gehen wir mit Systemupdates um?
Wie können wir sicherstellen, dass Entscheider:innen KI-Vorschläge kritisch hinterfragen?
Wie können Mitarbeitende Einwände erheben – und wer prüft sie?
Was tun wir, damit der Einsatz von KI rechtssicher ist?
Wenn Ihr diese Fragen beantworten könnt, seid Ihr schon weit. Und dann gilt: klein starten, sauber dokumentieren, lernen – nach dem Prinzip Permanent Beta.
Über die Autor:innen

Stefanie Hornung beschäftigt sich seit mehr als fünfzehn Jahren mit Fragen der Arbeitswelt. Als Journalistin und Mitgründerin des New Pay Collective analysiert sie aktuelle Fragestellungen und Erkenntnisse aus der empirischen Forschung und packt sie in Geschichten mit Tiefgang.

Sven Franke ist Experte für innovative Vergütungssysteme, Mitbegründer des New Pay Collective und ein Vorreiter für Zusammenarbeit auf Augenhöhe in Organisationen. Er begleitet Unternehmen bei der Gestaltung transparenter, fairer und partizipativer Vergütungsmodelle.

Nadine Nobile ist New Pay Pionierin durch und durch. Als Organisationsbegleiterin und als Autorin
teilt sie ihre Wissen und ihre Erfahrungen gerne mit allen, um New Pay in die Welt hinauszutragen.

Hallo zusammen. Sehr spannender Beitrag – aus Produktperspektive genau der richtige Fokus: KI kann in Vergütung/Grading viel beschleunigen, wenn Transparenz, Nachvollziehbarkeit und klare menschliche Entscheidungspunkte konsequent mitgedacht werden. Gerade im Kontext des EU AI Act ist „Human Oversight“ kein Zusatz, sondern Teil des Designs: strukturierte Kriterien, begründbare Vorschläge, Review- und Freigabeprozesse und ein sauberer Audit-Trail helfen, Scheinobjektivität, Prozessabkürzungen und Reverse Prompting im Griff zu behalten. - spannende Themen, denen wir uns da stellen! :-)