Ein verantwortungsvoller Weg zu AGI?

·

·

Was das neue DeepMind-Paper über künstliche Superintelligenz verrät – und was es für Datenschutz, digitale Selbstbestimmung und unternehmerische Verantwortung bedeutet.

Anfang April 2025 hat Google DeepMind ein neues Research-Paper mit dem Titel «An Approach to Technical AGI Safety and Security» veröffentlicht. Darin schildert der Konzern, wie er den Weg zur sogenannten Artificial General Intelligence (AGI) – also einer KI mit menschenähnlicher oder übermenschlicher Intelligenz – sicher gestalten will.

Das Papier liest sich wie eine technische Roadmap in die Zukunft, in der KI-Systeme autonom planen, entscheiden und handeln – mit dem Ziel, globalen Fortschritt zu ermöglichen. Die Autoreninnen und Autoren betonen mehrfach ihre Sorgfalt, Vorsicht und Verantwortung. Doch wer genauer hinschaut, erkennt: Es ist eine Sicherheitsarchitektur, entworfen von denen, die sie selbst brauchen, ohne unabhängige Kontrolle. Die Frage ist also berechtigt: Wie vertrauenswürdig ist ein Sicherheitskonzept, das aus der gleichen Schmiede stammt wie das Risiko selbst?

Diese Frage ist nicht nur akademisch. Für ethikbewusste Unternehmerinnen, Unternehmen und E-Commerce-Betreibende hat sie ganz konkrete Konsequenzen. Denn wer KI-gestützte Tools nutzt, trifft damit auch Entscheidungen über Daten, Kontrolle, Verantwortung – und das eigene Geschäftsmodell.

Google Deepmind

DeepMind – wer ist das eigentlich?

DeepMind wurde 2010 in London gegründet und 2014 von Google übernommen. Das Unternehmen sorgte international für Schlagzeilen, als es mit «AlphaGo» den weltbesten Go-Spieler schlug – ein Meilenstein für KI-Forschung. Seither hat DeepMind weitere hochkomplexe Systeme entwickelt, etwa «AlphaFold» (zur Proteinfaltung), und ist heute verantwortlich für Gemini, Googles leistungsstarkes Sprachmodell, das Chat, Bild- und Audioverarbeitung kombiniert.

Mit Gemini ist DeepMind nicht nur Forschungslabor, sondern auch Anbieter einer Schlüsseltechnologie, die zunehmend in Unternehmen, Kundendialog und Onlinehandel Einzug hält.

Vier Risiken – zwei davon besonders ernst

Das neue Paper unterscheidet vier Risikobereiche beim Einsatz von AGI:

  1. Missbrauch – KI wird absichtlich für Schaden genutzt (z. B. für Cyberangriffe).
  2. Fehlausrichtung – KI verfolgt ein Ziel, das nicht mit menschlichen Absichten übereinstimmt.
  3. Fehler – unbeabsichtigte Schäden durch falsche Einschätzungen.
  4. Strukturelle Risiken – z. B. durch komplexe Wechselwirkungen in grossen Systemen.

DeepMind konzentriert sich auf Missbrauch und Fehlausrichtung – aus gutem Grund: Diese beiden bergen das Potenzial für gravierende, sogar irreversible Schäden. Wenn eine KI beginnt, eigenständig Mittel zum Zweck zu suchen – etwa um Aufgaben zu erfüllen, ohne Rücksicht auf Werte, ethische Prinzipien oder Datenschutz – gerät sie schnell ausser Kontrolle.

Die Sicherheitsarchitektur von DeepMind – kontrollierte Kontrolle?

Das Unternehmen beschreibt eine Vielzahl von Massnahmen:

  • Technische Zugangsbarrieren, um gefährliche Fähigkeiten zu blockieren.
  • KI-gestützte Selbstkontrolle, bei der Modelle sich gegenseitig überwachen.
  • Red-Teaming und Sicherheitsanalysen, um Schwachstellen zu finden.
  • Trainingsmethoden mit «amplified oversight», bei denen die KI selbst zur Prüfung ihrer Ausgaben beiträgt.

Doch so durchdacht die Technik sein mag – ein entscheidendes Element fehlt: unabhängige, gesellschaftlich legitimierte Kontrolle. Bisher liegt die Definition von «gefährlich», «missbräuchlich» oder «fehlgeleitet» allein beim Entwickler. Das ist ein Problem.

The ethics of advanced AI assistants

Datenschutz: Wo steht die Schweiz?

Die Schweiz hat mit dem revidierten Datenschutzgesetz (revDSG) ein klares Bekenntnis abgegeben: Datenschutz ist kein Marketingargument, sondern ein Grundrecht.

Während DeepMind betont, gefährliche Fähigkeiten einzudämmen, bleibt offen, wie konkret mit personenbezogenen Daten umgegangen wird. Wer KI-Modelle wie Gemini in seinem Unternehmen nutzt, muss sich deshalb folgende Fragen stellen:

  • Wer verarbeitet welche Daten – und wo?
  • Werden Daten verwendet, um die KI zu verbessern (und falls ja, wie transparent)?
  • Was passiert mit sensiblen Kundendaten bei Drittanbietern?

Für Unternehmen mit Schweizer oder europäischen Kunden ist das keine Detailfrage – sondern eine rechtliche und ethische Pflicht.

Open Source vs. proprietär – eine unterschätzte Weichenstellung

Nicht alle KI-Systeme sind gleich. Der Unterschied zwischen offenen (Open Source) und proprietären Sprachmodellen ist essenziell – vor allem für Datenschutz, Kontrollierbarkeit und Zukunftssicherheit.

Open Source ModelleProprietäre Modelle
Quelloffen & transparentBlack Box – kaum Einsicht
Lokal betreibbarCloud-gebunden, meist USA-Server
Kontrollierte DatenverarbeitungDatenflüsse oft unklar
Anpassbar auf eigene StandardsAbhängig von Anbieter-Policies

Wer ein Open-Source-Modell wie Mistral, LLaMA 2 oder Mixtral einsetzt, kann sicherstellen, dass Daten nicht ungeprüft in globale Rechenzentren fliessen. Proprietäre Systeme wie Gemini bieten diesen Schutz nicht – was besonders im Hinblick auf Schweizer Datenschutzvorgaben problematisch ist.

Fazit: Wer KI einsetzt, übernimmt Verantwortung – nicht nur für Technik, sondern für Menschen

Das DeepMind-Paper zeigt: Die Entwicklung von AGI ist keine Zukunftsmusik, sondern technologische Realität in greifbarer Nähe. Unternehmen und E-Commerce-Betreibende, die heute auf KI setzen, müssen sich fragen: Welche Systeme wähle ich? Wem vertraue ich? Und wie schütze ich meine Kundinnen und Kunden, sowie ihre Daten?

Denn eines ist klar: Technologischer Fortschritt ist kein Selbstzweck. Er braucht demokratische Kontrolle, unternehmerische Verantwortung und ethisches Bewusstsein.

Credits