KI kommt nicht, sie ist schon da und HR ist mittendrin
Spätestens mit dem EU AI Act (Verordnung 2024/1689) ist klar: Künstliche Intelligenz ist nicht länger ein technologisches Add-on, sondern ein hochreguliertes Thema mit tiefgreifenden Auswirkungen auf HR-Arbeit. Ob im Recruiting, bei der Personalentwicklung oder im Performance Management - der Einsatz von KI-Systemen muss transparent, fair und rechtlich sauber ablaufen.
Wir haben mit dem Wiener Rechtsanwalt Mag.Dr. Martin Huger, LL.M., über die neuen Vorgaben, Pflichten und Grauzonen gesprochen. Sein Fazit: Wer jetzt handelt, sichert sich nicht nur Compliance, sondern auch Handlungsspielraum für die Zukunft.
1. Was gilt bereits? Erste Verbote und Transparenzpflichten sind aktiv
Seit August 2024 ist der EU AI Act in Kraft, erste verbindliche Bestimmungen gelten aber seit Februar 2025. Dazu zählen:
- Verbot bestimmter KI-Praktiken, etwa manipulative Systeme, Emotionserkennung am Arbeitsplatz oder Social Scoring.
- Pflicht zur KI-Kompetenz: Unternehmen müssen Mitarbeitende, die KI nutzen, schulen.
- Pflichten für Anbieter von General-Purpose-AI-Systemen: Seit August 2025 gelten Dokumentations- und Transparenzvorgaben.
Weitere Vorschriften, insbesondere zu Hochrisiko-KI, treten ab 2026/2027 in Kraft. Doch schon jetzt müssen Unternehmen sicherstellen, dass ihre eingesetzten Systeme nicht gegen geltendes Recht verstoßen.
2. HR im Fokus: KI-Kompetenz als neue Pflicht
"Es reicht nicht, ein Online-Training zu machen und abzuhaken", sagt Martin Huger. Der AI Act verlangt eine nachhaltige Befähigung der Mitarbeitenden. Dabei geht es nicht nur um technische Kenntnisse, sondern auch um ethische und rechtliche Aspekte.
Für HR heißt das:
- Individualisierte Schulungen für HR-Mitarbeitende, angepasst an ihre Rolle (Anwender:in vs. Entscheider:in).
- Verständnis für Funktionsweise und Risiken der eingesetzten Systeme.
- Dokumentierte Governance-Strukturen, die auch Freigaben, Verantwortung und Überwachung regeln.
"HR sollte nicht reaktiv handeln, sondern als Teil eines KI-Governance-Frameworks agieren", betont Huger.
3. Emotionserkennung & Co.: Die unsichtbaren Grauzonen
Ein besonderes Risiko besteht darin, dass KI-Tools oft Funktionen enthalten, die nicht auf den ersten Blick erkennbar sind - etwa Verhaltenserkennung oder Scoring-Mechanismen. Gerade im HR-Kontext können solche "versteckten" Features schnell rechtswidrig sein.
"Wenn ein System etwa versucht, Motivation oder Stresslevel zu erkennen, ist das häufig unzulässig - auch wenn es nur 'unterstützend' gemeint ist", warnt Huger. Entscheidend ist: Wer KI nutzt, muss die Technologie wirklich verstehen. Technische, juristische und ethische Expertise müssen daher Hand in Hand gehen.
4. Hochrisiko-Systeme im Recruiting: Schon jetzt relevant
Obwohl viele Pflichten erst ab 2026/2027 schlagend werden, besteht für KI-Systeme im Recruiting schon heute Handlungsbedarf. Denn:
- Bewerbungstools können Hochrisiko-KI darstellen, wenn sie Entscheidungen mit großem Einfluss treffen.
- Transparenzpflichten und das Verbot manipulativer Verfahren gelten bereits.
- Schulungen zur KI-Kompetenz sind jetzt Pflicht.
"Unternehmen sollten jetzt prüfen, welche Daten ein Tool nutzt und wie Entscheidungen zustande kommen", so Huger. Wer wartet, riskiert Sanktionen und Reputationsverluste.
5. Haftung: Was droht HR wirklich?
Seit August 2025 gelten auch die Sanktionsmechanismen des AI Act - mit Bußgeldern bis zu 35 Mio. Euro oder 7 % des globalen Umsatzes.
Wen trifft das konkret?
- In erster Linie: das Unternehmen (als Betreiber oder Anbieter des KI-Systems).
- Führungskräfte? Eine direkte Haftung ist aktuell nicht auszuschließen, hängt aber von der konkreten Umsetzung in österreichischem Recht ab.
- HR-Verantwortliche? Grundsätzlich nein. Aber bei grober Fahrlässigkeit oder Pflichtverletzungen könnte intern Regress drohen.
"Alle Beteiligten sollten ihre Rolle und Verantwortung kennen und diese proaktiv wahrnehmen", so Huger.
6. Was gilt für KMU & Start-ups?
Der AI Act sieht gewisse Erleichterungen vor: z. B. niedrigere Bußgelder oder reduzierte Dokumentationspflichten. Aber: Keine Ausnahmen bei Verboten oder Transparenz.
"Innovation soll nicht verhindert, aber kontrolliert gefördert werden. Auch kleine Unternehmen müssen KI sauber einsetzen", so Huger.
7. Was HR jetzt tun sollte - Schritt für Schritt
Checkliste für 2025:
- Bestandsaufnahme: Welche KI-Systeme sind im HR im Einsatz? Welche Tools sind geplant?
- Rollen klären: Wer nutzt, wer verantwortet KI?
- Governance aufbauen: Richtlinien, Freigaben, Auditstrukturen etablieren.
- KI-Kompetenz entwickeln: Schulungen starten, Programme dokumentieren.
- Transparenz schaffen: Bewerbende und Mitarbeitende informieren.
- Dokumentation & Nachvollziehbarkeit sicherstellen (z. B. durch Protokolle, Freigaben, Systemprüfungen).
"2025 ist das Jahr der Vorbereitung. Wer jetzt startet, hat 2026 die Nase vorn", sagt Huger.
8. Rechtssicherheit: Was HR absichern sollte
Für den rechtssicheren Einsatz von KI im HR empfiehlt Huger:
- Interne Abstimmung mit Datenschutz, Compliance und ggf. Betriebsrat.
- Prüfung, ob eine Betriebsvereinbarung erforderlich ist.
- Transparenz gegenüber Mitarbeitenden, wenn KI bei Entscheidungen mitwirkt.
- Dokumentierte menschliche Kontrolle (z. B. durch Freigaben oder Vieraugenprinzip).
"Rechtssicherheit entsteht durch klare Prozesse, informierte Entscheider:innen und kritische Reflexion - nicht durch blindes Vertrauen in Tools."
Fazit: Verantwortung beginnt nicht 2026, sondern heute
Der EU AI Act ist kein Zukunftsthema, sondern schon 2025 HR-Realität. Wer als Personalabteilung KI-Systeme nutzt oder plant, sollte den Rechtsrahmen nicht nur kennen, sondern aktiv gestalten. Die gute Nachricht: HR kann hier Vorreiter sein - für verantwortungsvolle Technologie, faire Entscheidungen und lernende Organisationen.