Menschen wie Lauterbach haben ein public private schlüsselpaar. Alles von dem er will, dass du und ich nachvollziehen kann, dass er denkt, dass es echt ist, kann er mit seinem privaten Schlüssel signieren, und du (oder besser deine Clients) können das über seinen öffentlichen Schlüssel prüfen und entsprechend darstellen.
Awesome, dann kann ich alles mögliche sagen und wenn mich jemand dabei filmt, einfach nicht signieren und der Videobeweis zählt plötzlich als Deepfake…?
Wenn dich jemand beim Scheißelabern filmt und das Video im Internet landet, bist du in der Regel eh nicht die Person, die es hochläd. ;)
Bspw. ganz einfach, wie man das schon seit 30 Jahren macht.
Es gibt zwei Möglichkeiten das Problen der Authentizität anzugehen: (1) AI Material zu kennzeichnen oder (2) die Vertrauenswürdigkeit von “echtem” Material sicherzustellen.
Ersteres ist ein Rennen, was man nicht gewinnen kann (und darüber hinaus ein ressourcenintensives und langwieriges Unterfangen).*
Letzteres ist seit der Steinzeit etablierte Software, die die Authentizitätsfrage in einer Vertrauensfrage umwandelt, also zu anderer / gewohnter Stelle verschiebt: Ein Video ist bspw. von Lauterbach signiert, d.h. ich kann sicher sein, dass es von ihm stammt. Ich habe die Frage der Authentizität umgewandelt in die Frage, ob ich Lauterbach traue.
Beides zusammen wäre natürlich noch besser. Der Punkt von @dwt ist m. E. jedoch, dass Signaturen lange lange schon existent und ressourcentechnisch quasi kostenlos sind und man sich einem Haufen der aktuellen Probleme (wie diesem) ganz einfach entledigen könnte. Alles dafür ist schon lange da, wird jedoch medientechnisch nicht genutzt.
* Das ist keinesfalls nutzlos, da ich ja immer noch mit der Vertrauensfrage dastehe.
Jo, für statische Dateien. Auch für streams auf Youtube, Twitter, Mastodon?
Man könnte abschnittsweise signieren. Weiß nicht, ob es das schon gibt.
Es ist aber nicht so unbedingt nötig. Es gibt ja schon HTTPS.