logistic ready

Fachportal für Intralogistik

Google legt Regeln für den Einsatz von KI in politischen Kampagnenvideos fest |  Technologie

Google legt Regeln für den Einsatz von KI in politischen Kampagnenvideos fest | Technologie

Diogo Cortez äußert sich zu den Gefahren künstlicher Intelligenz in Demokratien

Google wird verlangen, dass politische Anzeigen, die künstliche Intelligenz nutzen, mit einem Hinweis versehen werden, dass die Bilder oder Töne verändert wurden.

Die Regel gilt für politische Anzeigen auf YouTube oder den anderen Plattformen des Unternehmens. Die Benachrichtigung sollte sich an einer gut sichtbaren Stelle auf dem Bildschirm befinden. Bei Nichteinhaltung der Regel wird die Anzeige entfernt.

Google verbietet künstliche Intelligenz in politischen Anzeigen nicht vollständig. Mithilfe künstlicher Intelligenz können Bilder verändert, Videofarben und -fehler korrigiert, Hintergrundanpassungen usw. vorgenommen werden.

Wenn der Einsatz von KI für die Nachricht nicht relevant ist, wird Google den Einsatz nicht blockieren.

Die neue Regelung tritt im November in Kraft.

Nächstes Jahr finden Wahlen in den USA, Indien, Südafrika, der Europäischen Union und anderen Regionen statt, in denen Google bereits einen Verifizierungsprozess für Wahlwerbetreibende durchführt.

Das KI-generierte Video zeigt das Gesicht von US-Präsident Joe Biden auf dem Körper einer Tänzerin. Foto: Globo News

Gefälschte Bilder, Videos oder Audiodateien sind in der politischen Werbung nichts Neues, doch generative KI-Tools machen diese Fälschungen einfacher und realistischer.

Einige Präsidentschaftswahlkämpfe im Rennen um das Jahr 2024, darunter der des republikanischen Gouverneurs von Florida, Ron DeSantis, nutzen die Technologie bereits.

Im April veröffentlichte das Republikanische Nationalkomitee eine vollständig durch künstliche Intelligenz generierte Anzeige, die eine Version davon zeigte, wie die Zukunft der Vereinigten Staaten aussehen würde, wenn Präsident Joe Biden wiedergewählt würde. Er verwendete gefälschte, aber realistische Bilder, die geschlossene Läden, gepanzerte Militärpatrouillen auf den Straßen und Wellen von in Panik geratenen Migranten zeigten.

staatliche Regulierung

Letzten Monat hat die Bundeswahlkommission einen Prozess zur Regulierung von Deepfakes (d. h. gefälschten, fotorealistischen Bildern) eingeleitet, die durch künstliche Intelligenz in politischen Anzeigen vor der Wahl 2024 generiert werden. Diese Deepfakes können die Stimme und das Bild von Politikern nachahmen – auf andere Weise Mit Worten können sie Videos erstellen. Meine Tatsache beinhaltet etwas, das der Politiker selbst nie gesagt hat.

Die demokratische Senatorin Amy Klobuchar sagte in einer Erklärung, die Ankündigung von Google sei ein Schritt in die richtige Richtung, aber „wir können uns nicht allein auf freiwillige Verpflichtungen verlassen.“

Viele Staaten haben auch Gesetze im Zusammenhang mit der Deepfake-Technologie diskutiert oder verabschiedet.

Diese Entscheidung von Google kann dazu führen, dass andere Unternehmen ähnliche Richtlinien übernehmen. Facebook und Instagram, die beide von Meta kontrolliert werden, haben keine spezifischen Regeln für KI-generierte politische Anzeigen, beschränken aber „gefälschte, manipulierte oder transformierte“ Audio- und Bildinhalte, die zur Desinformation verwendet werden. TikTok erlaubt keine politische Werbung. Das soziale Netzwerk X, früher bekannt als Twitter, reagierte nicht sofort auf eine per E-Mail gesendete Bitte um einen Kommentar.