Was bedeutet AI Cheating und wo findet es statt?
AI Cheating bezeichnet die Nutzung von KI-Tools und -Diensten während eines virtuellen Vorstellungsgesprächs, um sich unzulässige Vorteile zu verschaffen. Das geschieht hauptsächlich bei technischen Interviews, bei denen Kandidaten Programmieraufgaben oder algorithmische Probleme lösen müssen. Statt die Aufgaben eigenständig zu bearbeiten, greifen manche Bewerber verdeckt auf KI zurück, um Lösungen zu generieren, Code zu verbessern, Fehler zu beheben oder detaillierte Erklärungen zu erhalten – oft innerhalb von Sekunden.
Ein prominentes Beispiel ist die Nutzung von KI bei Aufgaben, wie sie auf Plattformen wie LeetCode gestellt werden, die weithin zur Vorbereitung auf technische Interviews genutzt werden. Diese Art des Schummelns ist besonders in virtuellen Umgebungen verbreitet, weil Kandidaten externe Hilfsmittel leichter unbemerkt einsetzen können. Schätzungen deuten darauf hin, dass ein erheblicher Prozentsatz der Bewerber für Stellen als Software Engineer irgendeine Form von KI-basierter Unterstützung nutzt.
AI Cheating wird bei der Bewerbung auf technische Positionen in Unternehmen wie Google, Amazon, Meta, TikTok, Deloitte und Anthropic beobachtet.
Welche Techniken und Werkzeuge werden eingesetzt?
Die Funktionsweise des AI Cheatings beruht darauf, dass KI-Modelle, insbesondere große Sprachmodelle (LLMs), auf riesigen Datensätzen trainiert wurden, die oft auch Lösungen für gängige Interviewaufgaben enthalten. Tools wie Interview Coder, Leetcode Wizard oder generelle KIs wie ChatGPT und Claude können schriftliche oder mündliche Fragen analysieren und blitzschnell Code oder Erläuterungen liefern. Einige dieser Werkzeuge sind speziell darauf ausgelegt, von Bildschirmaufzeichnungs-Software oder Webcams nicht erkannt zu werden.
Neben Software gibt es auch Fälle, bei denen physische Hilfsmittel wie unsichtbare Ohrhörer oder Smartwatches verwendet werden, oder sogar die Identität gewechselt wird, indem ein Experte das Interview anstelle des eigentlichen Kandidaten führt (Proxy Interviewing)
Roy Lee, ein Student, gründete das Unternehmen Interview Coder, das sich offen als Dienstleistung zum verdeckten Schummeln positionierte und damit eine Debatte über gängige Bewertungssysteme auslöste, die von vielen Kandidaten als unfair empfunden werden. Lee argumentiert, dass Interviewformate, welche die Nutzung von KI nicht berücksichtigen, in der heutigen Zeit, in der selbst Unternehmen wie Google über 25 Prozent ihres neuen Codes von KI generieren lassen, keinen Sinn ergeben.
Wie können Unternehmen AI Cheating erkennen?
Unternehmen stehen vor der Herausforderung, Schummelei in einer Umgebung zu erkennen, in der die Grenze zwischen erlaubter Nutzung von Tools und unerlaubter Hilfe verschwimmt. Dazu entwickeln sie verschiedene Strategien. Eine Methode ist die sorgfältige Beobachtung des Verhaltens der Kandidaten während des Interviews. Interviewer achten auf Anzeichen wie abschweifende Blicke, Spiegelungen von externen Bildschirmen in Brillen oder Antworten, die auswendig gelernt klingen oder nicht genau zur Frage passen. Ein oft beobachtetes Indiz ist ein kurzes "Hmm", das Kandidaten nutzen, um Zeit zu gewinnen, während ihre KI-Tools die Antwort erarbeiten. Auch das plötzliche Erscheinen ganzer Codeblöcke in der Entwicklungsumgebung, anstatt dass der Code schrittweise eingegeben wird, kann ein Hinweis sein.
Eine weitere effektive Taktik zum Erkennen von AI Cheating ist das gezielte Nachfragen. Interviewer fordern die Kandidaten auf, ihre Lösungen detailliert zu erklären oder Änderungen am Code vorzunehmen. Jemand, der die Lösung selbst entwickelt hat, kann seine Logik mühelos darlegen und flexibel auf Anpassungswünsche reagieren, während jemand, der von einer KI kopiert hat, oft Schwierigkeiten hat, die Funktionsweise zu beschreiben oder Änderungen umzusetzen.
Einige Unternehmen, darunter Google und Deloitte, ziehen zudem die Rückkehr zu Präsenz-Interviews in Erwägung oder haben diese bereits teilweise wieder eingeführt, weil das die Nutzung externer Hilfsmittel physisch erschwert. Allerdings sind virtuelle Interviews oft schneller und bei Kandidaten sowie Mitarbeitern beliebter.
Zunehmend werden auch explizite Richtlinien eingeführt. Unternehmen wie Anthropic und Amazon haben klare Anweisungen in ihren Bewerbungsprozessen, die die Nutzung von KI-Assistenten während des Interviews verbieten. Kandidaten werden teils aufgefordert, diese Richtlinien zu bestätigen.
Experten und Unternehmen diskutieren die Notwendigkeit, die Interviewmethoden selbst anzupassen. Traditionelle algorithmische Aufgaben, die von KIs leicht gelöst werden können, könnten durch maßgeschneiderte Fragen ersetzt werden, die sich stärker auf die praktische Arbeit beziehen, oder durch interaktive Programmiersitzungen, bei denen Kandidat und Interviewer gemeinsam an einer Aufgabe arbeiten. Technische Maßnahmen wie geschlossene Testumgebungen ohne Internetzugang (Google) oder trainierte KI-Modelle zur Erkennung von KI-generiertem Code (Microsoft) sind ebenfalls in Entwicklung oder Nutzung.
Welche Folgen hat AI Cheating?
Die Folgen von AI Cheating sind vielschichtig und betreffen sowohl Unternehmen, die Bewerber selbst als auch die Branche insgesamt. Für Unternehmen kann das Hauptproblem darin bestehen, Kandidaten einzustellen, die im Interview glänzen, aber im Arbeitsalltag nicht über die erforderlichen Fähigkeiten verfügen . Es gibt Berichte über neu eingestellte Ingenieure, die trotz hervorragender Interview-Performance grundlegende Werkzeuge wie Git nicht bedienen konnten. Das führt zu Misstrauen zwischen Bewerbern und Personalverantwortlichen. Das ständige Bestreben, Schummelei zu erkennen, bindet zudem wertvolle Zeit und Ressourcen der Interviewer.
Die Verbreitung des AI Cheatings zwingt Unternehmen außerdem dazu, ihre Bewertungsmethoden zu hinterfragen und neu zu definieren, was im Zeitalter der KI als Kompetenz und Leistung zu werten ist. Wenn Interviewsituationen nicht angepasst werden, besteht die Gefahr, dass nicht die fähigsten Entwickler eingestellt werden, sondern diejenigen, die am besten schummeln.
Es gibt auch Bedenken hinsichtlich eines möglichen "De-Skilling" bei jüngeren Entwicklern, die von Anfang an stark auf KI-Assistenten angewiesen sind und möglicherweise weniger tiefgreifendes Verständnis für die zugrundeliegenden Konzepte entwickeln. Letztendlich erschwert es AI Cheating, die passendsten Kandidaten für die richtigen Stellen zu finden.
Die Reaktion auf entlarvtes Schummeln kann harte Konsequenzen haben; so wurden beispielsweise Roy Lees Praktikumsangebote von Amazon und TikTok zurückgezogen, nachdem er öffentlich gezeigt hatte, wie sein Tool bei Interviews hilft.
Bewertung
AI Cheating stellt eine wachsende Herausforderung in der Tech-Branche dar, die durch die Verbreitung virtueller Interviews und die Leistungsfähigkeit moderner KI-Tools befeuert wird. Unternehmen sind gefordert, ihre Rekrutierungsprozesse anzupassen, um sowohl Schummelei zu erkennen als auch ein Bewertungssystem zu schaffen, das die Fähigkeiten angemessen misst, die in einer zunehmend von KI unterstützten Arbeitswelt tatsächlich relevant sind.