Seit 40 Jahren fotografiere ich. Ich habe einen Foto-Blog gepflegt, als das noch ein Ding war. Und in meiner journalistischen Laufbahn habe ich immer auf Ton-, Bildund Videodokumente als Beweise gesetzt – im Bewusstsein, dass sie nur schwer gefälscht werden konnten. Man brauchte ...
Seit 40 Jahren fotografiere ich. Ich habe einen Foto-Blog gepflegt, als das noch ein Ding war. Und in meiner journalistischen Laufbahn habe ich immer auf Ton-, Bildund Videodokumente als Beweise gesetzt – im Bewusstsein, dass sie nur schwer gefälscht werden konnten. Man brauchte Expertise, Zeit, teure Software. Die Fälschung war meist erkennbar.
Das galt auch während der Anfänge der Künstlichen Intelligenz: Noch vor einem Jahr konnte man Video-KI-Maschinen wie «Sora» kein Pferd entlocken, das auf einem Menschen reitet, egal wie raffiniert man den Eingabebefehl formulierte: Das Pferd war immer unten, der Reiter oben. Das lag daran, dass generative KI die Welt nicht «versteht», sondern einfach die häufigsten Muster kopiert. Deshalb ist in KI-Texten auch das «Deppenapostroph» so verbreitet: Es ist zwar falsch, aber im Alltag häufiger anzutreffen als der korrekte Genitiv.
Seit Kurzem aber produzieren alle gängigen KI-Videomodelle absolut realistische Videos von nahezu allem, was man sich vorstellen kann. Längst machen auf Instagram «Deepfake»-Videos die Runde, in denen Prominente Dinge sagen, die sie in der Realität niemals von sich geben würden.
Mir fällt das in meinen Hobby-Bubbles auf. Der Golfer Rory McIlroy erklärt an einer Pressekonferenz, er werde nie mehr auf amerikanischem Boden ein Golfturnier spielen. Tiger Woods bedauert das Verhalten der amerikanischen Fans während des Ryder Cups und lehnt es ab, je Captain des US-Teams zu werden. Beides würden diese Persönlichkeiten niemals sagen. Aber die «Deepfakes» sind dermassen lebensecht und gerade noch knapp am Möglichen, dass sie glaubhaft wirken. Erst eine Recherche macht die Fälschung erkennbar.
Übertragen wir das auf die Politik, kann ich inzwischen nur noch glauben, was ich Trump, Netanyahu, Erdogan oder auch Merz in einer offiziellen Quelle sagen höre – von einer journalistischen Instanz überprüft. Alles andere erkläre ich so lange für falsch, bis es von einem Medium vom Format einer «New York Times», der BBC oder dergleichen bestätigt wird. Anders gesagt: Die «Wahrheitsvermutung» wird umgekehrt.
Was bedeutet das für unseren Alltag? Mit wenigen Fotos, die wir von uns auf Facebook veröffentlichen, können Betrüger lebensechte Videos erstellen. Mit einer Audioaufnahme lässt sich jede Stimme absolut realistisch nachbilden. Der Enkeltrick bekommt eine neue, erschreckende Dimension. In den Familien sollte man sich auf «Sicherheitscodes» einigen: Wenn der Enkel per Videoanruf aus dem Urlaub um Geld bittet, kann man ihn nach diesem Begriff fragen. Kennt er ihn nicht, ist er nicht der Enkel.
Als Fotograf schmerzt mich diese Entwicklung. Die Kamera ist zur professionellen Lügnerin geworden. Vielleicht ist das die eigentliche Ironie unserer Zeit: Je besser die digitale Täuschung wird, desto wertvoller wird die analoge Begegnung. Vertrauen Sie also weiterhin Ihren Augen – aber nur, wenn die Person direkt vor Ihnen steht.
Peter Sennhauser, Redaktor «Volksstimme»