Von regulatorischer Pflicht zur wirtschaftlichen Chance: Wie OpenAI mit dem EU AI Act und dem neuen Code of Practice Europas KI-Entwicklung unterstützen will.
Seit Jahren dominiert die Debatte um Künstliche Intelligenz in Europa vor allem ein Thema: Regulierung. Mit dem EU AI Act hat die Europäische Union im Sommer 2024 ein weltweit beachtetes Regelwerk verabschiedet. Nun folgt der nächste Schritt: Der finale Code of Practice for General Purpose AI wurde veröffentlicht – und OpenAI hat angekündigt, ihn zu unterzeichnen. Damit will das Unternehmen nicht nur seine Modelle wie GPT-4o regelkonform betreiben, sondern gleichzeitig die wirtschaftlichen Potenziale von KI in Europa erschliessen.
Vom Risiko zur Regel: Was der Code of Practice bedeutet
Der Code of Practice dient als Umsetzungshilfe für den EU AI Act, insbesondere für Anbieter sogenannter General Purpose AI (GPAI) – also breit einsetzbarer KI-Modelle wie GPT-4o. Er konkretisiert zentrale Anforderungen: etwa zur Dokumentation, Transparenz, Copyright-Compliance und Risikobewertung.
OpenAI sieht darin mehr als nur eine Formalie. Der Code of Practice soll laut Unternehmensangaben als Sprungbrett dienen – für Investitionen, für Innovation und für den Aufbau einer europäischen KI-Infrastruktur. Damit wird Regulierung zur Voraussetzung für Wachstum und nicht zu dessen Bremse.
Neue Initiative: OpenAI for Countries – European Rollout
Parallel zur Unterzeichnung des Code of Practice startet OpenAI seine europäische Expansionsstrategie: Mit dem Programm OpenAI for Countries will das Unternehmen gezielt Länder beim Aufbau von KI-Infrastruktur unterstützen. Im Fokus stehen fünf Handlungsfelder:
- Rechenzentren & Energiebedarf
Europa braucht laut OpenAI eine eigene, souveräne Rechenkapazität für KI. Dazu beteiligt sich das Unternehmen an Konsortien zur Errichtung von sogenannten «AI-Gigafactories» – Infrastrukturprojekte mit langfristiger wirtschaftlicher Bedeutung. - Bildung & KI-Literacy
Mit «ChatGPT Edu» wurde in Estland bereits ein nationales Bildungsprogramm gestartet, das Lehrerinnen und Schülern personalisiertes Lernen ermöglicht. Weitere EU-Staaten zeigen Interesse. - Staatliche Partnerschaften
OpenAI will gemeinsam mit Regierungen an neuen Public-Private-Partnerships arbeiten, die lokale Werte und Sprachen berücksichtigen – inklusive Datenspeicherung in der EU. - Förderung von Start-ups
In Kooperation mit Regierungen sollen nationale KI-Fonds entstehen, die heimische Gründerinnen und Gründer mit Kapital, Technik und Support versorgen – damit «AI made in Europe» keine Vision bleibt. - Breite Adaption im Mittelstand
Im Herbst organisiert OpenAI gemeinsam mit «Allied for Startups» einen Policy-Hackathon in Brüssel, um die KI-Nutzung in allen Wirtschaftssektoren zu fördern – ein Zeichen, dass Europa nicht nur regulieren, sondern auch realisieren will.
Verantwortung & Sicherheit: Einblicke in OpenAIs Sicherheitsarchitektur
Dass OpenAI nicht erst seit dem AI Act Wert auf Sicherheit legt, zeigt ein Blick auf die firmeneigenen Standards:
- Preparedness Framework: Seit 2023 dokumentiert OpenAI, wie Risiken vor dem Rollout neuer Modelle bewertet und minimiert werden.
- System Cards & Model Specs: Zu jeder grossen Veröffentlichung gibt es technische Dokumentationen über Fähigkeiten, Grenzen und getestete Risiken.
- Red Teaming & Safety Hub: Externe Fachleute testen Modelle auf Schwachstellen, Ergebnisse werden öffentlich gemacht.
- Kontinuierliche Evaluation: Mit der Unterzeichnung des Codes verpflichtet sich OpenAI, diese Standards weiterzuentwickeln – in enger Abstimmung mit dem künftigen EU AI Office.
Der AI Act: Eine kurze Einordnung
Der AI Act unterscheidet zwischen verbotenen, hochriskanten und geringfügig riskanten KI-Anwendungen. Verboten sind u. a. emotionale Analyse am Arbeitsplatz, Social Scoring und manipulative Systeme. Hochriskante Systeme (etwa für Kreditvergabe, Personalentscheidungen oder Gesundheitsversorgung) unterliegen strengen Dokumentations- und Prüfpflichten.
Für General Purpose AI – also Modelle, die für vielfältige Zwecke einsetzbar sind – gelten zusätzliche Anforderungen wie:
- Transparenz über Trainingsdaten
- Copyright-Compliance
- Risikoanalysen bei besonders leistungsfähigen Modellen (ab 10²⁵ FLOPs)
- Zusammenarbeit mit der EU-Kommission bei der Meldung kritischer Modelle
Für Unternehmen ausserhalb der EU gilt: Wer KI-Systeme in Europa anbietet oder deren Output hier genutzt wird, fällt ebenfalls unter die Verordnung.
Fazit: Ein neuer KI-Kurs für Europa?
Mit dem Code of Practice, dem AI Act und der OpenAI-Initiative ist ein neues Kapitel angebrochen. Statt nur über Verbote zu diskutieren, geht es jetzt um Visionen: Eine europäische KI, die sicher, transparent – aber eben auch leistungsfähig und wirtschaftlich relevant ist.
OpenAI positioniert sich dabei strategisch als Partner für Regierungen, Bildungsträger und Unternehmen. Wer in Europa KI-basierte Anwendungen entwickelt oder nutzt, wird sich an den neuen Rahmenbedingungen orientieren müssen – findet aber auch neue Chancen: Sei es durch staatliche Unterstützung, offene Partnerschaften oder durch verantwortungsvolle Technologieanbieter, die den europäischen Weg mitgehen.
Für Betreiberinnen von Online-Shops, Plattformen und digitalen Produkten heisst das konkret:
- Versteht euer Risiko-Level – seid ihr Deployers oder Providers?
- Prüft, ob euer Einsatz von GPAI-Systemen wie GPT-4o in den Anwendungsbereich des AI Act fällt.
- Achtet auf neue Transparenzpflichten, insbesondere bei KI-generierten Inhalten.
- Nutzt die sich abzeichnenden Standards, um Vertrauen zu schaffen – bei Nutzerinnen wie bei Partnern.
Europa steht am Beginn einer neuen Ära der KI. Jetzt ist die Zeit, sie aktiv mitzugestalten.
Credits
Weitere Artikel zum Thema
- Regulierung von Künstlicher Intelligenz: Balanceakt zwischen Innovation und Kontrolle
Schreibe einen Kommentar