Bericht warnt vor KI-Fälschungen
Die Schweiz ist unzureichend gegen Deepfakes gewappnet

Für manipulierte Videos fehlen in der Schweiz notwendige Schutzvorkehrungen. Menschen seien kaum in der Lage, sogenannte Deepfakes als Fälschungen zu enttarnen, warnte die Stiftung für Technologiefolgen-Abschätzung TA-Swiss in einem am Dienstag vorgelegten Bericht.
Publiziert: 18.06.2024 um 10:43 Uhr
Gegen mit Künstlicher Intelligenz gefälschte Videos, sogenannte Deepfakes, braucht es laut der Stiftung für Technologiefolgen-Abschätzung (TA-Swiss) weitere Massnhamen. (Archivbild)
sda-logo_g.jpeg
SDASchweizerische Depeschenagentur

In einem Experiment gelang es Teilnehmenden nicht, mit Künstlicher Intelligenz generierte Inhalte wie Videos und Tonaufnahmen als solche zu erkennen. Detektor-Programme schnitten nicht viel besser ab.

Die Technologie werde etwa für Erpressung oder Mobbing genutzt. Angesichts der rasanten technischen Entwicklung könne nur eine Kombination von Schutzvorkehrungen schädliche Auswirkungen von Deepfakes begrenzen, schrieb TA-Swiss im Bericht.

Politische Massnahmen, Deepfake-Detektoren und Sensibilisierung sollten sich gemäss TA-Swiss ergänzen. So solle der Staat gegenüber Online-Plattformen durchsetzen, dass für Personen schädliche Deepfakes gelöscht werden und es sollen Opferberatungsstellen eingerichtet werden.

TA-Swiss sieht in Deepfakes aber auch Chancen, etwa für die Film-Synchronisation.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Alle Kommentare