this post was submitted on 28 Jul 2023
13 points (100.0% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
top 4 comments
sorted by: hot top controversial new old
[–] [email protected] 15 points 1 year ago (1 children)

Wow, für die beiden Wochen in denen das nicht umgangen wird, wird das bestimmt hilfreich sein.

[–] [email protected] 3 points 1 year ago

Der spätere Teil is wohl der interessante, während dieser Manipulationschutz eher technische Spielerei ist: Die Wasserzeichen.

In einer Welt, in der Bilder und Filme leicht manipulierbar sind, wird es Zeit für standardmäßige kryptographische Signierung von Quellen.

[–] [email protected] 2 points 1 year ago
[–] Lekip 1 points 1 year ago

Interessanter Ansatz, aber vermutlich nicht wirklich hilfreich. Wie im Artikel erwähnt, kann man natürlich alte Bilder nach wie vor benutzen, um damit AIs zu Speisen. Grade von den celebrities dieser Welt gibt's davon mehr als genug, von vielen von uns auch. Täuschend echte Fälschungen Mithilfe von LORAs können dann auch komplett neue Bilder der Betroffenen generieren. Das wird im Artikel nicht erwähnt. Mich würde auch interessieren, was zum Beispiel passiert, wenn man in einer Bildverarbeitungs Software beispielsweise einen sehr leichten Blur über das Bild legt - funktioniert es dann wieder? Die Details kann man mit den gleichen Tools aus dem Artikel (Stable diffusion) wieder "zurück-generieren" wenn überhaupt notwendig. Ich zweifle daran, ob solche protection-tools eine Chance haben, mit der Entwicklung der AI mitzuhalten, besonders wenn die Menge an zugänglichen AIs steigt. Das end-ziel der AI Entwickler wird es ja vermutlich sein, dass die AI sehr Menschen-ähnlich erkennt und erdenkt. Wenn wir da ein mal nah dran sind, wird es wohl schwer Bilder so zu sichern, dass es Menschen nicht auffällt. Dennoch grade technisch sehr interessant. Schade dass der Artikel nicht mehr auf die angewandte Methode eingeht. Werde auf jeden Fall mal nachlesen was genau da passiert