Ein Beitrag von Mario Gersbach, Application Security Engineer bei Sidarion
In den letzten beiden Beiträgen habe ich gezeigt, welche Use Cases wir mit unserem lokalen KI-Server abdecken und wie unser Tech Stack aussieht. Jetzt kommt der Teil, den viele unterschätzen – und der im schlimmsten Fall richtig teuer werden kann: Recht und Compliance.
Denn eines ist klar: Nur weil die KI im eigenen Serverraum läuft, heisst das noch lange nicht, dass alles erlaubt ist. Und die regulatorische Landschaft unterscheidet sich je nachdem, ob man in der Schweiz oder im EU-Raum operiert – teilweise erheblich.
Lizenzrecht: «Open Source» ist nicht gleich «Open Source»
Der erste Stolperstein lauert bei den Modelllizenzen. Viele verwechseln «Open Weights» mit «Open Source» – der Unterschied ist juristisch erheblich.
Echte Open-Source-Modelle (z.B. unter MIT oder Apache 2.0) gewähren umfangreiche Nutzungsrechte. Open-Weights-Modelle hingegen stellen nur die Modellgewichte bereit – oft mit eigenen Lizenztexten, die Einschränkungen bei kommerzieller Nutzung, Feintuning oder bestimmten Branchen enthalten. Hinzu kommen Community-Lizenzen und OpenRAIL-Varianten mit Attributions-Pflichten und Model-Card-Anforderungen.
Für Unternehmen heisst das: Vor dem produktiven Einsatz eines Modells sollte eine Lizenzmatrix erstellt werden. Welche Rechte werden für Inferenz, Feintuning, API-Bereitstellung und kommerzielle Nutzung tatsächlich benötigt – und gewährt die Lizenz das auch? Verstösse können zu Unterlassungsklagen und Schadensersatzforderungen führen – und das unabhängig davon, ob man in Zürich oder München sitzt.
Datenschutz: Zwei Gesetze, ein Grundprinzip
Beim Datenschutz fahren die Schweiz und die EU auf zwei Schienen – aber das Grundprinzip ist dasselbe: Wer personenbezogene Daten verarbeitet, braucht eine Rechtsgrundlage, muss transparent informieren und technische Schutzmassnahmen treffen.
In der EU gilt die DSGVO. Sie verlangt unter anderem eine klare Zweckbindung, Datensparsamkeit und bei hohem Risiko eine Datenschutz-Folgenabschätzung (DPIA). Beim Self-Hosting greift die DSGVO ab dem Moment, wo ein Mitarbeiter einen Kundennamen in einen Prompt eingibt oder ein Dokument mit Personendaten analysiert wird.
In der Schweiz gilt seit September 2023 das revidierte Datenschutzgesetz (DSG). Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) hat unmissverständlich klargestellt: Das DSG ist technologieneutral formuliert und damit direkt auf KI-gestützte Datenbearbeitungen anwendbar. Auch in der Schweiz ist bei hohen Risiken eine Datenschutz-Folgenabschätzung erforderlich.
Wo sich die Schweiz von der EU unterscheidet:
Das Schweizer DSG kennt ein Erlaubnisprinzip mit Rechtfertigungsgründen – die Datenbearbeitung ist grundsätzlich erlaubt, sofern keine Persönlichkeitsverletzung vorliegt. Die DSGVO hingegen folgt einem Verbotsprinzip mit Erlaubnisvorbehalt. In der Praxis liegt die Messlatte ähnlich hoch, aber die rechtliche Argumentation unterscheidet sich. Ein wichtiger Schweizer Aspekt: Bei automatisierten Einzelentscheidungen haben Betroffene das Recht, eine Überprüfung durch einen Menschen zu verlangen – das DSG sieht dies ausdrücklich vor.
Für beide Rechtsräume gilt:
Self-Hosting auf Hardware eines US-Anbieters kann den US CLOUD Act berühren. Datenlokalisierung und eigenes Schlüsselmanagement sind hier wichtige Absicherungen.
KI-Regulierung: EU prescht vor, Schweiz nimmt sich Zeit
Bei der spezifischen KI-Regulierung zeigt sich der grösste Unterschied zwischen den beiden Rechtsräumen.
Die EU hat mit dem AI Act einen umfassenden, risikobasierten Regulierungsrahmen geschaffen. Verbote bestimmter KI-Praktiken gelten bereits seit Februar 2025. Ab August 2026 greifen die Anforderungen für Hochrisiko-KI-Systeme: technische Dokumentation, Risikomanagement, menschliche Aufsicht, Monitoring und Meldepflichten. Für Self-Hoster ist die zentrale Frage: Bin ich Anbieter (Provider) oder Betreiber (Deployer)? Wer ein Modell wesentlich verändert – etwa durch Feintuning – kann vom Betreiber zum Anbieter werden, mit deutlich umfangreicheren Pflichten.
Die Schweiz geht einen anderen Weg. Der Bundesrat hat im Februar 2025 entschieden, kein umfassendes KI-Gesetz nach EU-Vorbild zu erlassen. Stattdessen setzt die Schweiz auf die Ratifizierung der KI-Konvention des Europarats und sektorielle Anpassungen bestehender Gesetze. Eine Vernehmlassungsvorlage soll bis Ende 2026 vorliegen, in Kraft treten dürften neue Regeln frühestens 2028. Die Schweiz verfolgt damit bewusst einen liberaleren, innovationsfreundlicheren Ansatz.
Aber Achtung: Schweizer Unternehmen, die KI-Systeme in der EU anbieten oder dort tätige Kunden bedienen, unterstehen dem Marktortprinzip des AI Act – unabhängig vom Firmensitz. Wer EU-Kunden hat, sollte den AI Act also nicht ignorieren.
Governance und Security: Für beide Rechtsräume gleichermassen relevant
Unabhängig davon, ob man in der Schweiz oder in der EU operiert – gewisse Themen sind universell:
Governance bedeutet: klare Nutzungsregeln, definierte Rollen und Verantwortlichkeiten, Prozesse für Modellfreigabe und Incident Response sowie regelmässige Qualitätskontrollen. Standards wie ISO/IEC 42001 (KI-Managementsysteme) bieten gute Leitplanken.
Security ist kein Nice-to-have. Prompt Injection, Data Poisoning, Model Inversion und Supply-Chain-Angriffe auf das Tooling sind reale Bedrohungen. Security by Design umfasst: SBOM/Model BOM, Signierung der Modellgewichte, isolierte Ausführungsumgebungen und Notfallprozesse wie Kill-Switch und Rollback. In der EU kommen mit NIS2 zusätzliche Meldepflichten hinzu.
Haftung folgt einem einfachen Prinzip: Wenn ein LLM-Output zu einer Fehlentscheidung führt, haftet der Betreiber. In der EU wurde die Produkthaftungsrichtlinie mit der Richtlinie (EU) 2024/2853 grundlegend überarbeitet – die Definition von «Produkt» umfasst nun explizit Software und KI-Systeme. Die Umsetzungsfrist für die Mitgliedstaaten läuft bis Dezember 2026. Eine eigenständige KI-Haftungsrichtlinie (AILD) war geplant, wurde jedoch im Oktober 2025 von der Kommission offiziell zurückgezogen. KI-Haftung in der EU stützt sich damit derzeit auf die überarbeitete Produkthaftungsrichtlinie und das nationale Deliktsrecht. In der Schweiz greifen das Obligationenrecht und das Produktehaftpflichtgesetz. In beiden Fällen gilt: Dokumentation ist eure Versicherung. Testprotokolle, Model Cards, Versionierung und Freigabeprozesse müssen revisionssicher vorliegen.
Praxisempfehlung
1. Auswahl von Modellen
Nur Modelle mit klar definierten Lizenzen auswählen und eine Lizenzmatrix erstellen, um Rechte und Pflichten zu überblicken.
2. Lizenzführung
Open Weights sind nicht gleich Open Source. Lizenzbedingungen müssen klar verstanden werden, besonders hinsichtlich kommerzieller Nutzung und Feintuning.
3. Datenschutz & Sicherheit
Detaillierte Schutzmassnahmen sind zwingend erforderlich. DSGVO und revidiertes DSG verlangen transparente Informationspflichten und technische Sicherheitsmassnahmen.
4. Technische Qualität
Technische Integrität durch Benchmarks, Red Teaming und Safety-Tests sicherstellen. Halluzinationsraten regelmässig messen.
5. Betrieb & Governance
Klare Rollendefinitionen und Verantwortlichkeiten sind entscheidend. Ein Incident Response-Team sollte schnell auf Vorfälle reagieren können.
6. Compliance Monitoring
Kontinuierliche Überwachung der Compliance-Standards ist notwendig, um gesetzliche Anforderungen zu erfüllen und Risiken zu minimieren.
7. Haftungsmanagement
Alle Prozesse und Produktionen müssen dokumentiert sein, um rechtlichen Problemen vorzubeugen.
8. Internationale rechtliche Aspekte
Unternehmen, die in der EU tätig sind oder EU-Kunden bedienen, müssen die Anforderungen des AI Acts beachten, auch bei Sitz in der Schweiz.
Fazit
Self-Hosting liefert Kontrolle und Datenhoheit – aber es verpflichtet zu konsequenter Compliance. Das gilt in der Schweiz genauso wie in der EU, auch wenn die regulatorischen Wege unterschiedlich sind.
Die Schweiz bietet aktuell mehr Spielraum, aber das DSG gilt bereits heute für KI – und wer EU-Kunden bedient, kommt am AI Act nicht vorbei. Deutsche und EU-Unternehmen stehen vor einem dichteren Regulierungsrahmen, profitieren aber von klareren Leitplanken.
Unser Rat: Macht Compliance von Anfang an zum Teil eures KI-Projekts – nicht erst, wenn der erste Audit kommt.
