Verleger, SRG und Keystone‑SDA legen einen verbindlichen Kodex für den Einsatz von KI in Medien vor. Umsetzung bis Jahresende, Fokus auf Schulung, Schutz und Transparenz.
In Kürze
- VSM, SRG und Keystone‑SDA verabschieden gemeinsamen Kodex
- Vier Prinzipien: Anwenderkenntnisse, Schutz demokratischer Prozesse, Datenschutz, Transparenz
- Kennzeichnungspflicht, Meldestellen, Ombudsstelle und WEMF‑Audit geplant
Schweizer Verleger, SRG und Keystone‑SDA haben sich auf einen verbindlichen Kodex zum Umgang mit Künstlicher Intelligenz verständigt. Vorgestellt wurde das Selbstregulierungsinstrument am Swiss Media Forum in Luzern; umgesetzt werden soll es bis Ende des Jahres.
Wer hat das Papier erarbeitet?
Der Kodex stammt vom Verlegerverband Schweizer Medien (VSM) in Zusammenarbeit mit der SRG SSR und der Nachrichtenagentur Keystone‑SDA. Ziel ist, das Vertrauen der Öffentlichkeit in Medieninhalte zu stärken.
Parallel führt das Werbemedienforschungsinstitut WEMF ein „Responsible AI“-Audit sowie ein Zertifikat ein, das die Einhaltung der Standards prüfen soll.
Woran orientiert sich der Kodex?
Er lehnt sich an die Konvention des Europarats zur KI an — deren Ratifizierung im Bundesrat noch ansteht — und setzt auf Selbstregulierung. Vier zentrale Prinzipien bilden das Gerüst:
- Anwenderkenntnisse (also die Kompetenz der Mitarbeitenden im Umgang mit KI)
- Schutz demokratischer Prozesse
- Datenschutz
- Transparenz
Konkrete Regeln und Pflichten
Medienunternehmen müssen Mitarbeitende schulen, die KI‑Systeme nutzen oder deren Ergebnisse verarbeiten. Redaktionelle Inhalte und vertrauliche Daten sind beim Einsatz von KI besonders zu schützen. Öffentlich soll transparent gemacht werden, wie und wo KI eingesetzt wird — etwa über eine Informationsseite auf der Website. Außerdem werden «KI‑Meldestellen» für Verstöße eingerichtet und eine unabhängige Ombudsstelle soll jährlich über Vorfälle berichten.
- Schulung von Mitarbeitenden, die KI‑Systeme nutzen oder deren Ergebnisse verarbeiten
- Schutz redaktioneller Inhalte und vertraulicher Daten beim Einsatz von KI
- Transparenz gegenüber der Öffentlichkeit, z. B. durch eine Informationsseite auf der Website
- Einrichtung von «KI‑Meldestellen» für Verstöße
- Berichterstattung durch eine unabhängige Ombudsstelle über Vorfälle (jährlich)
Kennzeichnungspflichten
Vollständig KI‑generierte Inhalte sowie unverifizierte Veröffentlichungen (Texte, Bilder, Audio) müssen für das Publikum erkennbar gekennzeichnet werden. Inhalte, die mit KI erstellt oder bearbeitet wurden, sind auf ihre Richtigkeit zu prüfen und gegebenenfalls zu kennzeichnen. Auch KI‑Systeme, die mit Nutzern interagieren und für Menschen gehalten werden könnten — etwa Chatbots — müssen als solche ausgewiesen werden.
- Vollständig KI‑generierte Inhalte und unverifizierte Veröffentlichungen müssen gekennzeichnet werden
- Mit KI erstellte oder bearbeitete Inhalte sind auf Richtigkeit zu prüfen und ggf. zu kennzeichnen
- Interaktive KI‑Systeme (z. B. Chatbots) müssen als solche ausgewiesen werden
Wie passt das in den europäischen Kontext?
In Deutschland existiert noch kein einheitlicher Branchenkodex; verschiedene Organisationen wie ARD, ZDF und BDZV fordern strengere Regeln für KI‑Anbieter und Plattformen. ARD, ZDF und Deutschlandradio haben intern einen Kodex mit dem Prinzip „Human in the Loop“ vereinbart: Menschen bleiben die publizistische Verantwortungsträger, ergänzt durch Transparenz- und Kennzeichnungspflichten.
Ein praktisches Beispiel für die Risiken: Im ZDF sorgte ein KI‑Filmschnipsel im heute journal für einen Skandal und die Abberufung einer Korrespondentin. Auf europäischer Ebene verpflichtet der EU AI Act ab dem 2. August 2026 zur klaren Ausweisung von KI‑Inhalten in der EU. Internationale Vergleiche zeigen, dass Länder wie China in diesem Bereich bereits weiter sind, so der Bericht.
Weitere Initiativen
Der Deutsche Journalisten‑Verband unterzeichnete 2023 die „Paris‑Charta zu KI und Journalismus“, und die European Federation of Journalists sprach sich 2025 für einen Umgang mit KI aus, der Ethik, Urheberrechte und redaktionelle Unabhängigkeit schützt.
- Deutscher Journalisten‑Verband: Unterzeichnung der „Paris‑Charta zu KI und Journalismus“ (2023)
- European Federation of Journalists: Stellungnahme (2025) für einen KI‑Umgang, der Ethik, Urheberrechte und redaktionelle Unabhängigkeit schützt
Was bedeutet das für dich?
Du wirst künftig transparenter sehen können, wann Medien KI einsetzen oder Inhalte damit erstellt wurden. Medien sollen stärker in Ausbildung, Kontrolle und den Schutz sensibler Inhalte investieren. Zudem gibt es Anlaufstellen, an die du dich wenden kannst, wenn etwas schiefgeht.
- Mehr Transparenz darüber, wann Medien KI einsetzen oder Inhalte mit KI erstellt wurden
- Stärkere Investitionen der Medien in Ausbildung, Kontrolle und Schutz sensibler Inhalte
- Vorhandensein von Anlaufstellen (z. B. Meldestellen, Ombudsstelle) für Vorfälle
Quellen
- Quelle: Verlegerverband Schweizer Medien (VSM) / SRG SSR / Keystone-SDA
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




