Download FakeApp
2.2.0Vertauschen Sie Gesichter in Videos durch KI
Kostenloser Download von den Servern von Malavida
- Kostenloser direkten Download Originaldatei
- Mit Antivirus überprüft, ohne Werbung oder Downloader
- FakeApp gehostet bei Malavida
Kostenloser Download von den Servern von Malavida
Sollte der Download nicht starten, klick bitte hier.
Dieses Programm gehört zur Kategorie Videoeditoren.
Mit diesen Videobearbeitungsprogrammen kannst du professionelle Videos schaffen und verschiedene Aspekte bearbeiten, indem du Effekte und Übergänge hinzufügst.
Feedbacks der Benutzer
-
Tobias_Claren Meinte vor über einem Jahr
Damit könnte man Gesichter fremder Menschen in Videos durch andere ersetzen, ohne sie verfremden zu müssen.
Vorteil, man sieht noch die Mimik. Könnte theoretisch auch noch Lippen lesen was diese gesagt haben.
Könnte eine Software zum Lippen lesen noch die Lippen lesen. Solch eine Software sollte auch mal "geleakt" werden.
Bisher liest man da maximal von IT-Laboren in denen das gemacht wird.
Aber auch diese Software die in Videos aus den Vibrationen auf Oberflächen den Ton im Raum rekonstruieren kann.
Denn dann hat man ja nicht illegal heimlich Audio aufgezeichnet, kann aber dennoch Aussagen hörbar machen...
Auch nützlich wäre eine Spracherkennung die mehrere Sprecher (am besten auch mal parallel) erkennt, und in verschiedenen Farben oder mit "Sprecher 1 , 2, 3..." versieht.
Solche Livemitschriften wären rechtlich nicht mal heimlich illegal. Es wäre ja auch keine Gefahr jemand damit hart bloß zu stellen. Man kann immer sagen "hat die Person selbst geschrieben". Ist ja nur ein Text.
Wenn aber nun Video und mit VoCal (Adobe) Audio fälschbar sind, wird ein gesetzliches Verbot heimlicher Aufnahmen eh immer weniger Nutzwert haben. Weil man eh alles fälschen kann, und damit auch jeder sagen kann "ist gefälscht", auch wenn es wirklich stimmt.
Insofern hätte das für Menschen die evtl. wirklich heimlich aufgezeichnet wurden sogar einen Vorteil.
Es sollte nur eines Tages auch forensisch nicht mehr von echten Aufnahmen zu unterscheiden sein.
Also kein "Wasserzeichen" etc. im Audio dass sagt "Fälschung".