• Lemmchen@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    21
    arrow-down
    1
    ·
    edit-2
    1 year ago

    Besonders perfide: Offenbar werden Kinderfotos häufig auch nachträglich bearbeitet und für die Verbreitung pornografischer Inhalte missbraucht. Julia Kaiser von der Landesmedienanstalt des Saarlandes beschreibt: “Durch Kinderbilder, die im Netz frei verfügbar sind, werden Tatgelegenheiten für Hersteller computeranimierter Kinderpornografie geschaffen. Aufnahmen bekleideter Kinder können so umgestaltet werden, dass sie leicht bekleidete oder gar nackte Kinder abbilden. So werden auch vermeintlich harmlose Bilder sexualisiert oder in einen sexuellen Kontext gestellt.”

    Sorry, wenn ich da jetzt mal entgegen argumentieren muss, aber das ist ein so dermaßen irrelevantes Randproblem. Da jetzt “Pädokriminelle” daraus zu machen und das als tatsächlich überall lauernde Gefahr darzustellen ist doch völlig absurd. Wisst ihr wie viel echtes CSAM existiert? Es ist enorm viel. Glaubt mal nicht, dass es irgendwer tatsächlich nötig hätte Familienbilder zu shoppen. Die Suche nach echtem Material ist sehr viel weniger aufwändig.

    Natürlich wird hier die Privatsphäre der Kinder verletzt. Und das sollte auch das Thema sein, worüber geredet werden muss. Aber doch nicht irgendwelche Räuberpistolen von nachträglich bearbeiteten Familienfotos, also echt. Ich würde es ja noch im Kontext “Deepfakes” verstehen, aber das wird ja hier quasi gar nicht erwähnt und selbst dann ist es ein allgemeines Problem und keines, welches auf Kinder beschränkt wäre.

    Vielleicht bin ich aber auch einfach zu kinderlos um das Ausmaß völlig zu verstehen, wer weiß.