Für uns als Personalberater ist der Einsatz von KI eine sehr spannende Entwicklung. Wir fragen uns, inwieweit Künstliche Intelligenz Prozesse im Recruiting effizienter gestalten kann und beobachten Entwicklungen am Markt.

Eine der Entwicklungen, die bereits weitflächig Einzug gehalten hat, ist das Bewerbungsmanagement-Formular. Wenn Sie sich online auf eine Stellenanzeige bewerben möchten, werden Sie aufgefordert, ein Formular mit teils sehr umfangreichen fest definierten Parametern auszufüllen und Ihre ergänzenden Bewerbungsunterlagen hochzuladen. Die KI dahinter extrahiert daraus Informationen zum Abgleich mit Anforderungen für die angepeilte Stelle und liefert entweder eine Empfehlung für eine Vorauswahl oder führt diese bereits selbständig durch. Es kann also sein, dass Ihnen eine Zu- oder Absage zugeht, und nie ein Mensch Ihre Bewerbungsunterlagen gesehen hat.

Der Zweck dieses Formulars liegt darin, Bewerber schneller selektieren zu können. Legitimer Gedanke, wenn man bedenkt, wie groß die Bewerberflut mitunter sein kann und welcher Aufwand im Recruiting besteht, um alle relevanten Informationen Punkt für Punkt abzugleichen. Doch ist die KI wirklich besser als der geschulte Recruiter, der Mensch?

Mit „ExamAI – KI Testing & Auditing“ ist im Mai 2020 ein Forschungsprojekt „zur Nachvollziehbarkeit algorithmischer Entscheidungssysteme gestartet. Das im Auftrag des Observatoriums „Künstliche Intelligenz in Arbeit und Gesellschaft“ des Bundesarbeitsministeriums und im Rahmen des Observatoriums Künstliche Intelligenz in Arbeit und Gesellschaft (KIO) der Denkfabrik Digitale Arbeitsgesellschaft geförderte Projekt befasst sich mit dem Einsatz von KI in (a) Produktionsprozessen und – für uns besonders interessant – in (b) Personal- und Talentmanagement.

Warum diese Bereiche? Weil der Einsatz von KI „ganz besonders die Rechte der Arbeitnehmer*innen“ berührt[1]. Das Ziel des Forschungsprojekts liegt darin, mögliche „Kontroll- und Testverfahren für Künstliche-Intelligenz-Systeme“[2] zu entwerfen. Und darin liegt ein wichtiger Punkt für das „people Business“ HR.

Nehmen wir das eingangs beschriebene Beispiel des Bewerbermanagement-Formulars noch einmal auf – was übrigens in einem der 7 Bereiche inkludiert ist , in denen die Forscher den Einsatz von KI hinterfragen und schauen uns zwei Szenarien an, auf die sie aufmerksam machen:

  • Männer und Frauen unterscheiden sich häufig in ihrer Selbstwahrnehmung und stellen ihre Fähigkeiten unterschiedlich dar. Um hier für gleiche Ausgangsbedingungen zu sorgen, müsste die KI den Faktor „Geschlecht“ (heute schon) verlässlich mitbewerten.
  • Oder es liegen zwei Bewerbung vor, die in der Ausdrucksform aufgrund unterschiedlicher sozialer Herkunft differieren. Der Ausdruck hat erst einmal nichts mit den tatsächlichen Fähigkeiten zu tun. Doch im Abgleich durch die KI kann es sein – so die Forscher – dass es zu Verzerrungen und Benachteiligung kommt.

Die Gefahr für den Einsatz von KI in dieser Form liegt unter Anderem im Aspekt drohender Diskriminierung, da „Gelernte [sic] Entscheidungsregeln […] zu einem diskriminierenden Verhalten der Maschine führen“[3] können.

Das ist in der Form nicht akzeptabel und verdient es, näher untersucht zu werden, da Nachvollziehbarkeit und Fairness Schlüsselfaktoren im Umgang mit Menschen sind. Der Schluss liegt nahe, dass der Einsatz von KI im HR nicht besser ist als der Mensch – doch das ist zu kurz gedacht. Wichtig ist, das System in Anwendung zu hinterfragen: Welche Mechanismen stehen dahinter, mit welchen Daten kommt die KI zu ihrem Ergebnis? Und auch weiter zu denken: Haftungsfragen bei Falschentscheidungen klingen hier an.

Uns ist wichtig, an jeder Stelle des Recruitingprozesses zu bestmöglichen Entscheidungen zu kommen. Dabei ist uns der Faktor Mensch sehr wichtig. So sorgen die persönlichen Gespräche mit unseren Bewerbern und Bewerberinnen vielfach dafür, dass wir ein möglichst rundes Bild erhalten; wohl wissend, dass es Absolutheit hier nicht gibt.

Gleichzeitig liegt es in unserer Verantwortung als Recruiter und Spezialisten in der Personalberatung uns selbst, unsere Ansprüche und Prozesse zu hinterfragen, insbesondere hinsichtlich möglicherweise diskriminierender Denkmuster. Hier erscheint der Mensch flexibler als die Maschine.

Wir mögen gern Ihr Ansprechpartner sein, im direkten Kontakt mit Bewerbern stehen und uns überlegen, wie wir den sich verändernden Bedarfen unserer Kunden begegnen. Dabei bringen wir Expertise und Herzblut ein, haben Ideen, denken jenseits von „Schema F“ und möchten für alle transparent und nahbar arbeiten.

Kommen Sie gern mit uns in Kontakt.

Und wenn Sie der Fortlauf des Forschungsprojekts „ExamAI – KI Testing & Auditing“ interessiert, empfehlen wir Ihnen folgende Quellen zum Nachlesen und Verfolgen:

https://testing-ai.gi.de/

https://www.rechtsinformatik.saarland/de/forschung/projekte/examai

https://www.denkfabrik-bmas.de/projekte/ki-observatorium/szenarien-fuer-forschungsprojekt-examai-ki-testing-auditing-entwickelt

https://www.haufe.de/personal/hr-management/kuenstliche-intelligenz-in-hr-projekt-zu-chancen-und-risiken_80_531268.html

[1] https://www.denkfabrik-bmas.de/projekte/ki-observatorium/szenarien-fuer-forschungsprojekt-examai-ki-testing-auditing-entwickelt

[2] https://testing-ai.gi.de/meldung/ki-in-der-arbeitswelt-forschungsprojekt-zur-nachvollziehbarkeit-algorithmischer-entscheidungssysteme-gestartet

[3] https://testing-ai.gi.de/fileadmin/PR/Testing-AI/ExamAI_Publikation_Anwendungsszenarien_KI_HR.pdf, S. 11