Kurz gesagt: Unser Navigator hat ab sofort einen Transparenz-Check (Art. 52).
Er hilft, Kennzeichnungspflichten schnell zu erkennen und in konkrete Schritte zu übersetzen.
Was ist neu?
- Neues Widget unten rechts: „Transparenz prüfen (Art. 52)“
- Drei typische Fälle:
- Chatbot/Assistent – Disclosure: klarstellen, dass Nutzer:innen mit einem KI-System interagieren; Option „Mensch einbeziehen“.
- Emotionserkennung/biometrische Kategorisierung – Disclosure + Rechtsgrundlage; Schutzmaßnahmen dokumentieren.
- KI-generierte Inhalte/„Deepfakes“ – Kennzeichnung als KI-erzeugt; Manipulation/Quelle soweit zumutbar offenlegen.
- Ergebnis-Panel mit Jetzt-tun-Schritten (kurze To-do-Listen, druck- & a11y-freundlich).
Warum ist das wichtig?
Transparenz ist eine eigenständige Pflicht des EU AI Act – unabhängig davon, ob ein System als hochriskant gilt.
Der Check macht diese Ebene greifbar: Was muss wann sichtbar sein – und wo?
So nutzen Sie den Check
- Öffnen Sie den Navigator: /hochrisiko-check/
- Klicken Sie auf „Transparenz prüfen (Art. 52)” (unten rechts)
oder den Button im Erklärungskasten. - Wählen Sie passende Fälle → Ergebnis + To-dos erscheinen sofort.
- Dokumentieren & umsetzen (Kennzeichnungstexte, UI-Position, interne Notizen).
Tipp: Mehr Hintergründe im Glossar: Transparenzpflicht, Synthetische Inhalte – Kennzeichnung.
Nächste Ausbaustufen
- Mustertexte für Disclosure-Hinweise (Chatbots & Deepfakes)
- Checklisten zur UI-Platzierung (sichtbar, verständlich, dauerhaft)
- Optionale Beleg-Exportzeile im PDF (welche Transparenzfälle wurden geprüft?)
👉 Jetzt ausprobieren: /hochrisiko-check/.