Governance, Mittelstand

KI-MIG: Das deutsche Gesicht des EU AI Act

Seit einem Jahr gilt: Wer KI einsetzt, muss nachweisen, dass die Menschen dahinter verstehen, was sie tun.

Nur wenige Unternehmen können das heute nachvollziehbar belegen.

Das Bundeskabinett hat am 11. Februar den Regierungsentwurf des KI-MIG beschlossen – Deutschlands Durchführungsgesetz zum EU AI Act. Das Parlament steht noch aus. Aber die Richtung ist klar: Die Bundesnetzagentur wird zentrale Marktüberwachungsbehörde. Ab August 2026 müssen die nationalen Aufsichtsstrukturen funktionsfähig sein – pünktlich zum Start der Hochrisiko-Regeln.

Viele Unternehmen haben in den letzten zwei Jahren KI eingeführt – pragmatisch, schnell, ohne innezuhalten. Ohne zu fragen: Verstehen wir, was dieses System tut und wie es arbeitet? Und wer haftet, wenn es das Falsche tut?

Diese Fragen wurden selten gestellt. Nicht aus Ignoranz – sondern aus Euphorie für das Neue, aus Zeitdruck, oder weil gerade in kleineren und mittleren Unternehmen schlicht niemand da war, der sie kompetent beantworten konnte.

Was das KI-MIG regelt

Der AI Act definiert die Anforderungen. Das KI-MIG beantwortet jetzt die nächste Frage: Wer in Deutschland kontrolliert, ob sie eingehalten werden?

Das Gesetz sieht KI-Sandboxes vor – geschützte Testumgebungen unter behördlicher Begleitung – und einen KI-Service-Desk als Anlaufstelle speziell für KMU und Start-ups. Ein bemerkenswertes Signal: Regulierung kann nicht nur Grenzen setzen. Sie kann auch Räume öffnen.

Wo die eigentliche Arbeit beginnt

Die eigentliche Arbeit beginnt aber nicht bei der Bundesnetzagentur. Sie beginnt mit einer ehrlichen Bestandsaufnahme im eigenen Unternehmen.

Welches KI-System in Ihrem Unternehmen wäre heute noch nicht dokumentiert – wenn Sie morgen geprüft würden?