this post was submitted on 28 Jul 2023
13 points (100.0% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] Lekip 1 points 1 year ago

Interessanter Ansatz, aber vermutlich nicht wirklich hilfreich. Wie im Artikel erwähnt, kann man natürlich alte Bilder nach wie vor benutzen, um damit AIs zu Speisen. Grade von den celebrities dieser Welt gibt's davon mehr als genug, von vielen von uns auch. Täuschend echte Fälschungen Mithilfe von LORAs können dann auch komplett neue Bilder der Betroffenen generieren. Das wird im Artikel nicht erwähnt. Mich würde auch interessieren, was zum Beispiel passiert, wenn man in einer Bildverarbeitungs Software beispielsweise einen sehr leichten Blur über das Bild legt - funktioniert es dann wieder? Die Details kann man mit den gleichen Tools aus dem Artikel (Stable diffusion) wieder "zurück-generieren" wenn überhaupt notwendig. Ich zweifle daran, ob solche protection-tools eine Chance haben, mit der Entwicklung der AI mitzuhalten, besonders wenn die Menge an zugänglichen AIs steigt. Das end-ziel der AI Entwickler wird es ja vermutlich sein, dass die AI sehr Menschen-ähnlich erkennt und erdenkt. Wenn wir da ein mal nah dran sind, wird es wohl schwer Bilder so zu sichern, dass es Menschen nicht auffällt. Dennoch grade technisch sehr interessant. Schade dass der Artikel nicht mehr auf die angewandte Methode eingeht. Werde auf jeden Fall mal nachlesen was genau da passiert