KI-Coding trotz EU AI Act

Was für CTOs im Mittelstand erlaubt ist und was nicht

Die eigentliche Blockade ist nicht das Gesetz. Es ist die Verwirrung.

Viele deutsche Unternehmen behandeln den EU AI Act wie ein Verbotsschild. Das Ergebnis ist vorhersehbar: Unsicherheit, Stillstand und interne Ausreden, warum man mit KI lieber noch ein Quartal wartet. Währenddessen sinkt der wirtschaftliche Druck nicht. Er steigt.

Das Problem ist selten Bosheit. Es ist eine Mischung aus Halbwissen, Vendor-Marketing und juristischer Panik. Alles wird in einen Topf geworfen: EU AI Act, DSGVO, Geschäftsgeheimnisse, Datenübertragung in die USA, Model-Training, Betriebsrat, Kundenverträge. Danach traut sich niemand mehr, eine vernünftige Entscheidung zu treffen.

Diese Seite trennt belegbare Tatsachen von bequemen Mythen. Sie ist keine Rechtsberatung. Sie ist eine Entscheidungshilfe für CTOs, die wissen müssen, wo echtes Risiko liegt und wo nur deutsches Sicherheitsbeduerfnis Theater spielt.


30 Minuten. Kein Verkaufsgespräch. Nur ein offenes Gespräch darüber, was Ihr Team ausbremst.

Zusammenarbeit beginnen

Fakten statt Fiktion

Fiktion: Der EU AI Act verbietet KI-Coding.

Fakt: Der EU AI Act ist risikobasiert. Er verbietet bestimmte Praktiken, regelt Hochrisiko-Systeme, setzt Transparenzpflichten fuer bestimmte Systeme und auferlegt Pflichten fuer Anbieter allgemeiner KI-Modelle. Interne Coding-Assistenten fuer Entwickler stehen nicht automatisch auf der Hochrisiko-Liste. Die Verordnung will die Nutzung vertrauenswuerdiger KI im Binnenmarkt gerade foerdern, nicht ersticken.

Fiktion: Nur KI aus Europa oder nur in Europa betriebene KI ist erlaubt.

Fakt: Die Verordnung gilt ausdruecklich auch fuer Anbieter und Betreiber aus Drittstaaten, wenn ihre Systeme oder deren Output in der Union genutzt werden. Das ist Regulierung. Das ist kein EU-only-Kaufgebot. Wer behauptet, der AI Act schreibe europaeische Anbieter vor, verwechselt politischen Wunsch mit Gesetzestext.

Fiktion: Die grossen Schlagzeilen zu Bussgeldern treffen sofort jedes Team, das Copilot oder ChatGPT benutzt.

Fakt: Die grossen Strafrahmen haengen an verbotenen Praktiken, an Pflichten rund um Hochrisiko-Systeme, an Transparenzpflichten und an Anbieterpflichten fuer allgemeine Modelle. Fuer einen Mittelstaendler, der KI zum Schreiben, Reviewen, Refaktorieren oder Analysieren von Code nutzen will, liegt das unmittelbare Risiko meist zuerst bei Vertraulichkeit, Vertragslage, Datenuebertragung, Logging, Telemetrie und interner Steuerung. Nicht darin, dass ein Coding-Agent ploetzlich als verbotene Sozialbewertung gilt.

Fiktion: Ein bezahlter Tarif ist automatisch konform.

Fakt: Ein kommerzieller Vertrag ist nur der Anfang. Er kann Trainingsnutzung, Retention und Admin-Kontrollen sauberer regeln als ein Consumer-Produkt. Trotzdem brauchen Sie weiterhin eine vernuenftige Tool-Freigabe, klare Datenklassen, eine Datenschutz- und Sicherheitspruefung, eine DPA, einen Blick auf Transfers und eine simple interne Nutzungsregel.

Fiktion: Wenn wir abwarten, wird alles klarer.

Fakt: Nein. Abwarten schafft keine Klarheit. Es schafft Rueckstand. Die Verordnung verlangt sogar KI-Kompetenz. Betreiber und Anbieter sollen nach bestem Vermoegen ein ausreichendes Niveau an AI Literacy bei den beteiligten Personen sicherstellen. Unsicherheit ist also kein Schutzschild. Sie ist ein Fuehrungsproblem.

Was fuer Coding-Tools heute tatsaechlich gilt

1) Consumer-Nutzung ist die rote Zone fuer vertrauliche Arbeit

Bei OpenAI ist die Trennung offen formuliert: Bei individuellen Diensten wie ChatGPT kann Inhalt fuer Modelltraining genutzt werden. Man kann sich abmelden, und Temporary Chat wird nicht fuer Training verwendet. Das ist besser als nichts. Es ist trotzdem kein solides Betriebsmodell fuer vertrauliche Entwicklungsarbeit.

Anthropic trennt aehnlich: Bei Free-, Pro- und Max-Konten kann Datenverwendung fuer Modellverbesserung aktiviert werden. Bei Consumer-Nutzung von Claude Code haengt das Trainingsprofil also an Kontoeinstellungen und Plan. Auch das ist fuer unternehmenskritische Arbeit kein sauberer Standard.

Die praktische Konsequenz ist banal: Freie oder persoenlich beschaffte Accounts gehoeren nicht in die Arbeit mit Kundendaten, Sicherheitsdetails, unreifen Produktideen, Vertragsentwuerfen oder proprietaeren internen Systemen. Nicht wegen Panik. Wegen elementarer Sorgfalt.

2) Kommerzielle Workspaces und APIs sind die vernuenftige Beschaffungsebene

OpenAI sagt fuer Business-, Enterprise- und API-Produkte klar, dass Eingaben und Ausgaben von Business-Nutzern standardmaessig nicht fuer Modelltraining verwendet werden. OpenAI wirbt ausserdem mit DPA-Unterstuetzung, Compliance-Unterstuetzung fuer Datenschutzgesetze, Verschluesselung und zusaetzlichen Enterprise-Kontrollen. Das macht die Produkte nicht automatisch passend. Es macht sie pruefbar und steuerbar.

Anthropic ist bei Claude Code ebenso klarer als viele Geruechte es behaupten. Unter kommerziellen Bedingungen fuer Team, Enterprise und API werden Code und Prompts standardmaessig nicht zum Training generativer Modelle genutzt, es sei denn, der Kunde optiert bewusst ein. Die Standard-Retention fuer kommerzielle Nutzer liegt bei 30 Tagen. Fuer Claude Code auf Claude Enterprise ist sogar Zero Data Retention verfuegbar. Dazu kommen abschaltbare Telemetrie- und Feedback-Mechanismen.

Bei GitHub Copilot ist der wichtigste praktische Punkt nicht nationalistisches Wunschdenken, sondern Vertragsform. GitHub trennt zwischen organisationsbereitgestellten Konten und individueller Nutzung. Fuer organisationsbereitgestellte Konten ist das Unternehmen fuer die meisten Nutzungsdaten der Data Controller, GitHub verarbeitet Daten im Rahmen einer DPA. GitHub macht zugleich klar, dass Copilot Prompts, Suggestions, Feedback- und Nutzungsdaten verarbeitet und dass personenbezogene Daten regional, in den USA und in weiteren Laendern verarbeitet werden koennen, abgesichert etwa ueber SCCs und den Data Privacy Framework. Das ist nicht EU-only. Es ist normales internationales SaaS mit Governance-Aufwand.

3) Bei OpenAI gilt: Der Vertragstyp ist wichtiger als der Modellname

Viele Fuehrungskraefte stellen die falsche Frage: “Duerfen wir Codex nutzen?”

Die brauchbare Frage lautet: Unter welchem Vertrag, in welchem Workspace und mit welchen Daten?

OpenAI unterscheidet oeffentlich zwischen Individual-Services und Business-Produkten. Fuer eine CTO-Entscheidung ist das wichtiger als der Aufdruck auf dem Modell. Wenn Mitarbeiter einen Consumer-Zugang nutzen, gelten Consumer-Risiken. Wenn Sie ein Business-, Enterprise- oder API-Modell sauber beschaffen, verschiebt sich die Lage in Richtung kontrollierbarer Unternehmensnutzung.

Was die deutsche Debatte gerade ueberdeckt

Wer in Deutschland nur auf Schlagzeilen schaut, bekommt leicht den Eindruck, rund um KI gehe es vor allem um geopolitische Lagerbildung, Strafandrohungen und moralische Selbstberuhigung. Die wirtschaftliche Lage sieht nirgends so abstrakt aus. Sie sieht teuer, langsam und unerquicklich konkret aus.

Tagesschau beschreibt parallel einen Standort, in dem Papierkram Produktivitaet bremst, kleine und mittlere Unternehmen von Berichtspflichten und unklarer Umsetzung ueberfordert sind und Insolvenzen den hoechsten Stand seit 2014 erreichen. In derselben wirtschaftlichen Berichterstattung ist von Zukunftsangst im Mittelstand, steigenden Standortkosten und dem Risiko die Rede, dass Investitionen und produktive Arbeit ausserhalb Europas stattfinden.

DIHK und BVMW argumentieren an der entscheidenden Stelle deutlich nuerchterner als manche deutsche Debatte. Die DIHK nennt KI einen Wettbewerbs- und Produktivitaetsfaktor, warnt vor rechtlichen Unsicherheiten und buerokratischen Hemmnissen und fordert praxistaugliche Regeln, Planungssicherheit, weniger Buerokratie und einen innovationsfreundlichen Rahmen. Der BVMW betont zugleich das grosse Anwendungspotenzial von KI im Mittelstand, kritisiert innovationshemmende ex-ante-Regulierung und weist darauf hin, dass Foerdergeld oft nicht wirksam in Projekte gelangt.

Das ist die eigentliche Trennlinie. Nicht Europa gegen USA. Nicht gute KI gegen boese KI. Sondern produktive Nutzung gegen organisierte Selbstblockade.

Fuer einen CTO im Mittelstand folgt daraus eine unangenehm einfache Wahrheit: Sie muessen nicht jede geopolitische Frage loesen. Sie muessen eine arbeitsfaehige Tool- und Governance-Entscheidung treffen, waehrend der wirtschaftliche Druck laeuft. Wer in so einer Lage nur ueber Herkunftsetiketten diskutiert, statt ueber Vertriebsmodell, DPA, Retention, Telemetrie, Tests und Review-Praxis, verwaltet den Rueckstand bloss etwas feierlicher.

Was der EU AI Act fuer Ihren Mittelstand konkret bedeutet

Wenn Ihr Team KI fuer interne Entwicklungsarbeit nutzt, dann sind das meist keine Hochrisiko-Einsaetze nach Annex III. Ein Coding-Assistent, der Pull Requests erklaert, Tests schreibt, Legacy-Code analysiert oder Refactorings vorbereitet, ist nicht dasselbe wie ein System, das Bewerber filtert, Kreditwuerdigkeit bewertet oder ueber Zugang zu essenziellen Leistungen entscheidet.

Das bedeutet nicht “alles egal”. Es bedeutet nur, dass die richtigen Fragen andere sind:

  • Welche Daten duerfen in welches Tool?
  • Welche Konten und Vertragsmodelle sind erlaubt?
  • Welche Logs, Retention- und Telemetriepfade entstehen?
  • Welche Admin-Kontrollen brauchen wir?
  • Welche Entwicklerpraktiken verhindern, dass KI schneller schlechten Code produziert?

Genau hier scheitern viele Unternehmen. Sie diskutieren abstrakte Regulierung und ignorieren das operative Design.

Womit Sie sofort anfangen koennen

  1. Trennen Sie Consumer-Tools und kommerziell beschaffte Tools sauber in Ihrer Policy.
  2. Definieren Sie drei Datenklassen: frei nutzbar, intern aber unkritisch, vertraulich oder reguliert.
  3. Erlauben Sie Coding-AI zunaechst nur fuer interne Entwicklung mit klaren Grenzen fuer Kundendaten, Secrets, Incident-Daten und Vertragsmaterial.
  4. Verlangen Sie kleine Diffs, Tests und menschliches Review. KI beschleunigt Tippgeschwindigkeit. Sie ersetzt keine technische Disziplin.
  5. Schulen Sie Ihr Team bewusst. AI Literacy ist keine optionale Dekoration mehr.

30 Minuten. Kein Verkaufsgespräch. Nur ein offenes Gespräch darüber, was Ihr Team ausbremst.

Zusammenarbeit beginnen

Relevante Artikel

Woraus wir ein Angebot machen

Die meisten Mittelstaendler brauchen keine Folterkammer aus Richtlinien. Sie brauchen drei Dinge: eine brauchbare Tool-Auswahl, knappe Nutzungsregeln und einen kontrollierten Pilot mit echten Entwicklern.

Genau dort setzen unsere Angebote an:

Primaerquellen

Die Lage ist also deutlich einfacher, als viele deutsche Gremien sie gern machen: Der EU AI Act verbietet Ihnen nicht, moderne Coding-Tools zu nutzen. Er zwingt Sie nur dazu, zwischen dummen und erwachsenen Entscheidungen zu unterscheiden.