Yoomee Kinderschutz & CSAE-Richtlinie
Letzte Aktualisierung: 2025-10-17
1. Einleitung & Geltungsbereich
Yoomee („wir“) verpflichtet sich, Kinder und Minderjährige vor jeder Form von sexuellem Missbrauch und sexueller Ausbeutung (CSAE – Child Sexual Abuse & Exploitation) zu schützen. Dieses Dokument legt unsere öffentlich zugänglichen Standards, Zuständigkeiten und Prozesse zur Prävention, Erkennung, Meldung und Durchsetzung der CSAE-Richtlinie auf unserer Plattform und in unseren Apps dar.
Diese Richtlinie gilt für alle Nutzer:innen, Inhalte, Kommunikationen und Funktionen von Yoomee (einschließlich, aber nicht beschränkt auf Chat, Bilder, Profildaten, Nachrichten, Uploads, Kommentare und Interaktionen). Sie ist Teil unserer übergeordneten Nutzungsbedingungen und Community-Richtlinien.
2. Definitionen & Verbotenes Verhalten
Im Sinne dieser Richtlinie umfasst CSAE (Child Sexual Abuse & Exploitation) unter anderem folgende Bereiche:
- CSAM (Child Sexual Abuse Material): Jede visuelle Darstellung (Bilder, Videos, Zeichnungen, computergenerierte Darstellungen) eines Minderjährigen bei sexuellen Handlungen oder mit Körperteilen zum sexuellen Zweck.
- Grooming: Anbahnung, Kontaktaufnahme oder Aufbau einer emotionalen Bindung zu einem Minderjährigen zu sexuellen Zwecken oder zur Vorbereitung von Missbrauch / Ausbeutung.
- Sextortion: Drohung, intime Bilder eines Minderjährigen zu verbreiten oder offenzulegen, um weitere sexuelle Handlungen oder Gefälligkeiten zu erzwingen.
- Sexualisierung von Minderjährigen: Darstellung oder Förderung Minderjähriger in sexueller Weise oder in sexualisierten Kontexten, einschließlich provokativer Bilder oder Beschreibungen.
- Menschenhandel, Anwerbung oder Ausbeutung: Angebot oder Nachfrage nach Minderjährigen zu sexuellen Zwecken oder die Ermöglichung eines solchen Verhaltens.
Solches Verhalten ist auf unserer Plattform strengstens verboten. Jeder Inhalt, jedes Verhalten, jede Nachricht oder jedes Konto, das gegen diese Definitionen verstößt, unterliegt Maßnahmen – einschließlich Entfernung, Sperrung, Kündigung, Eskalation an Behörden und Meldung.
3. Veröffentlichte Standards & Transparenz
Wir führen diese Richtlinie als öffentlich zugängliches Web-Dokument mit dauerhaft stabiler URL. Wir verweisen ausdrücklich auf CSAE, Kinderschutz und unseren App-Namen „Yoomee“, wie im Google Play Store aufgeführt, um die Anforderung „Veröffentlichte Standards“ von Google zu erfüllen.
Wir integrieren diese Standards zudem in unsere Nutzungsbedingungen und Community-Richtlinien mit klaren Querverweisen. Nutzer:innen müssen diesen Bedingungen zustimmen und werden darauf hingewiesen, dass Verstöße in Bezug auf Minderjährige mit höchster Priorität behandelt werden.
4. In-App-Meldung & Feedback-Mechanismus
Wir stellen einen Melde-Mechanismus innerhalb der App bereit, sodass Nutzer:innen Bedenken, Beschwerden oder Verdachtsmomente bezüglich CSAE melden können, ohne die App zu verlassen. Dies umfasst:
- Eine „Melden“-Schaltfläche oder einen Link, erreichbar von Profilen, Chatverläufen, Bildern oder Inhaltsseiten;
- Ein strukturiertes Meldeformular mit Feldern für Beschreibung, optionale Uploads (z. B. Screenshot, Bild), Datum/Uhrzeit, Nutzer-IDs, Kontext und optionale Kontaktangaben;
- Eine Bestätigung an die meldende Person (z. B. „Deine Meldung wurde übermittelt und wird geprüft“).
Alle Meldungen gelangen in unsere Moderations- und Eskalations-Pipeline zur Prüfung und Bearbeitung.
5. Moderation, Erkennung & Eskalationsprozess
Zur effektiven Erkennung, Priorisierung und Reaktion auf CSAE-Meldungen und Inhalte betreiben wir einen mehrschichtigen Moderationsprozess:
- Automatisierte Erkennung / Filter: Wir nutzen Inhalts-Scans (Bild-Hashing, KI-Analyse, Schlüsselwortfilter), um verdächtige Inhalte oder Nachrichten in Echtzeit oder periodisch zu markieren.
- Manuelle Prüfung: Markierte Inhalte werden an geschulte Moderator:innen zur finalen Entscheidung eskaliert, um Fehlalarme zu reduzieren und Kontext zu berücksichtigen.
- Priorisierung: Meldungen mit unmittelbarer Gefahr, gefährdeten Minderjährigen oder hoher Schwere gelangen in eine „Dringlichkeits“-Warteschlange mit kürzeren SLAs (z. B. innerhalb von 1 Stunde).
- Eskalation an Safety / Rechts-Team: Fälle, die tiefere Untersuchung erfordern (z. B. Grooming-Verdacht, wiederholte Verstöße, verdächtige Minderjährige), werden an ein internes Safety-Team und Rechtsbeistand weitergeleitet.
- Beschwerde & Überprüfung: Wo Nutzer:innen Entscheidungen anfechten, betreiben wir einen Einspruchskanal. Entscheidungen und Protokolle werden regelmäßig geprüft.
- Protokollierung & Kennzahlen: Jede Moderationsentscheidung wird protokolliert (wer, wann, Kontext, Entscheidung) und aggregierte Metriken (Meldeanzahl, Lösungszeiten, Fehlalarmraten) werden monatlich ausgewertet.
Wir verfeinern kontinuierlich Modelle, aktualisieren Regeln, trainieren Klassifikatoren neu und überwachen Genauigkeit. Zudem führen wir Stichprobenprüfungen moderierter Entscheidungen durch, um Qualität und Fairness sicherzustellen.
6. Maßnahmen bei tatsächlicher Kenntnis & Entfernung von CSAM
Sobald wir tatsächliche Kenntnis (durch Meldung, Erkennung, Audit) von CSAE / CSAM-Inhalten in unserem System haben, verpflichten wir uns zu raschen, dokumentierten Maßnahmen im Einklang mit dem Gesetz und unseren Standards.
- Sofortige Entfernung oder Sperrung des Zugriffs auf den betreffenden Inhalt;
- Sperrung oder Kündigung von Konten, die CSAE / CSAM hochgeladen, geteilt oder verbreitet haben;
- Sicherung von Protokollen und Kontext (bei gleichzeitiger Begrenzung weiterer Verbreitung) zur Unterstützung behördlicher Untersuchungen;
- Meldung bestätigter CSAE / CSAM-Vorfälle an relevante Behörden / Agenturen (z. B. NCMEC, lokale Strafverfolgung) gemäß anwendbarem Recht;
- Interne Eskalation und Überprüfung verwandter Inhalte oder Konten mit möglicher Verbindung zum Vorfall.
7. Gesetzliche Compliance & Meldung an Behörden
Wir erfüllen gesetzliche Verpflichtungen in allen Rechtsordnungen, in denen wir tätig sind, einschließlich unter anderem:
- Pflichtmeldungen von CSAM an Stellen wie das National Center for Missing & Exploited Children (NCMEC) in den USA oder entsprechende nationale Institutionen anderswo;
- Kooperation mit polizeilichen Ermittlungen, Vorladungen oder gerichtlichen Anordnungen;
- Datenaufbewahrung, Anonymisierung und Datenschutz gemäß geltenden Gesetzen wie DSGVO, COPPA und lokalen Kinderschutzbestimmungen;
- Regelmäßige rechtliche Überprüfung, um mit sich entwickelnden Kinderschutzgesetzen in wichtigen Märkten (z. B. USA, EU, UK usw.) Schritt zu halten.
Wo eine Meldung vorgeschrieben ist, werden wir Kontextdaten (Zeitstempel, Nutzer-IDs, Metadaten) beifügen und mit Behörden kooperieren, um Ermittlungen zu erleichtern.
8. Benannter Ansprechpartner für Kinderschutz / CSAE
Wir benennen eine Ansprechperson, die befugt ist, CSAE-bezogene Benachrichtigungen von Google oder Behörden zu empfangen, Durchsetzungsprozesse zu überwachen und bei Eskalationen zu handeln. Diese Person ist in unsere interne Sicherheits- und Prüfstruktur eingebunden.
Rolle / Funktion: Leitung Sicherheit & Compliance
E-Mail: Link
Reaktions-SLA: Wir verpflichten uns, auf eingehende Benachrichtigungen oder Eskalationen innerhalb von 24 Stunden zu reagieren (oder schneller bei dringenden Fällen).
9. Nutzer:innen-Aufklärung & Sicherheitswerkzeuge
Wir bieten Nutzer:innen Ressourcen, Kontrollmöglichkeiten und Aufklärung zur Förderung des Kinderschutzes:
- Hilfeseiten oder Artikel zur Erkennung von Grooming, Ausbeutung und zur Meldung von Missbrauch;
- Möglichkeit, andere zu blockieren, stummzuschalten oder den Kontakt einzuschränken;
- Automatisierte Warnungen oder Sicherheitshinweise, wenn Nutzer:innen im Begriff sind, persönliche Daten oder private Inhalte zu senden;
- Alterskontrollen / Verifikationsmaßnahmen, wo erforderlich (falls Minderjährige bestimmte Teile der App nutzen könnten), um Exposure und Funktionen zu begrenzen;
- Sicherheitshinweise oder Pop-ups beim Aktivieren von Chat / Medienfreigabe für jüngere Nutzer:innen, um Bewusstsein zu schaffen.
10. Audits, Kennzahlen & Kontinuierliche Verbesserung
Wir unterhalten ein Programm zur Überprüfung und Verbesserung:
- Monatliche und vierteljährliche Audits von Moderationsprotokollen, Fehlalarm- / Fehlklassifikationsraten;
- Interne Reviews, Stichproben und Peer-Review von Entscheidungen;
- Einbindung von Feedback, Post-Mortems zu Vorfällen und kontinuierliches Training von Moderator:innen und Modellen;
- Versionierung und Änderungsprotokolle von Richtlinien-Updates mit Datum und Changelog; neue Versionen werden mit „Letzte Aktualisierung“-Datum veröffentlicht;
- Veröffentlichung anonymisierter, aggregierter Kennzahlen (z. B. Anzahl CSAE-Meldungen, % innerhalb SLA gelöst), wo möglich und datenschutzkonform.
11. Selbst-Zertifizierung & Google Play Erklärung
In unserer Einreichung in der Google Play Console (Abschnitt Kinderschutz / CSAE) bescheinigen wir, dass wir Folgendes erfüllen:
- Wir pflegen und verlinken diesen öffentlich zugänglichen CSAE-Standard (diese Seite).
- Wir stellen einen In-App-Feedback-Mechanismus für CSAE-Meldungen bereit.
- Wir handeln angemessen bei tatsächlicher Kenntnis von CSAE / CSAM, einschließlich Inhaltsentfernung und Eskalation.
- Wir erfüllen geltende Kinderschutzgesetze und melden an Behörden, wie vorgeschrieben.
- Wir benennen eine Ansprechperson, die befugt ist, CSAE-Benachrichtigungen von Google oder Regulierungsstellen zu bearbeiten.
12. Versionshistorie & Änderungsprotokoll
Wir versionieren und verfolgen Änderungen an dieser Richtlinie. Nachfolgend ein kurzer Verlauf:
- 2025-10-17: Größere Überarbeitung zur Ausrichtung an aktualisierten Kinderschutzstandards von Google Play sowie Erweiterung zu Moderation, Eskalation und Kennzahlen.
13. Kontakt & Anfragen
Für Fragen, Feedback oder weitere Informationen zu dieser Richtlinie oder zum Kinderschutz auf unserer Plattform kontaktiere uns:
Entwickler: mobile TREND GmbH
E-Mail: Support