Facebook und Instagram haben einen neuen Weg gefunden, Fake News zu bekämpfen

In sozialen Netzwerken, insbesondere bei Meta, kursieren schnell falsche Informationen. Das Unternehmen hat daher einen neuen Weg gefunden, mit dem Nutzer erkennen können, ob bestimmte Bilder gefälscht sind oder nicht.

Meta, die Muttergesellschaft von Facebook und Instagram, gab den Start bekannt Kennzeichnung von durch künstliche Intelligenz (KI) erzeugten oder manipulierten Bildern auf seinen Plattformen. Diese Maßnahme ist Teil der Bemühungen von Meta, die Online-Transparenz zu fördern und die Verbreitung von Desinformation, insbesondere im Vorfeld der Wahlen 2024, zu verhindern.

Meta verwendet bereits ein sichtbares Wasserzeichen, um Bilder zu markieren, die von seiner eigenen Imagine AI-Engine erstellt wurden, die realistische Fotos von Menschen, Orten und Dingen erzeugen kann. Das Unternehmen plant nun, diese Praxis auf Bilder aus Drittquellen wie OpenAI, Google und Midjourney auszuweiten. Die Beschriftungen weisen darauf hin, dass die Bilder KI-generiert sind, und bieten weitere Informationen über die Quelle und den Prozess. Das genaue Design der Etiketten wird jedoch noch finalisiert Meta hat ein Modell geteilt, wie sie aussehen könnten, mit der Aufschrift „AI Info“ neben den Bildern.

Lesen Sie auch – Auf TikTok verbreiten sich durch KI immer mehr Fake News und Verschwörungstheorien

Meta möchte gefälschte Bilder in seinen sozialen Netzwerken markieren

Neben sichtbaren Beschriftungen entwickelt Meta auch Tools zur Erkennung unsichtbarer Markierungen in Bildern von Drittanbieter-Generatoren. Diese Markierungen sind in die Bildmetadaten eingebettet und dienen als eindeutige Identifikatoren, die durch Bearbeitungssoftware nicht geändert werden können. Meta sagte, dass auch andere Plattformen dies planensolche Markierungen verwenden und ein System zur Erkennung dieser Markierungen einrichten möchten.

Aber was ist mit KI-generiertem Audio und Video? Meta gab zu, dass es derzeit nicht über die Technologie verfügt, um diese Art von Inhalten zu identifizieren auf dem gleichen Niveau wie die Bilder. Er wies jedoch darauf hin, dass die Branche daran arbeite, diese Fähigkeit zu etablieren, und dass er seine Richtlinien entsprechend aktualisieren werde.

In der Zwischenzeit verlangt Meta von den Benutzern die Angabe, ob die von ihnen hochgeladenen Audio- oder Videoinhalte von KI produziert oder bearbeitet wurden. Wenn sie dies nicht tun, werden sie sanktioniert. Wenn der Inhalt außerdem so realistisch ist, dass er das Publikum irreführen könnte, platziert Meta eine auffälligere Kennzeichnung mit zusätzlichen Details.

Meta bereitet sich darauf vor, den Fake News den Garaus zu machen

Meta verbessert auch seine eigenen KI-Tools, wie etwa seine Imagine AI Engine und Large Language Models (LLM). Das FAIR AI Research Lab des Unternehmens arbeitet an einer neuen Wasserzeichentechnik namens Stable Signature, die Markierungen widerstandsfähiger gegen Löschungen macht. Meta schult seine LLMs auch in Bezug auf seine Community-Standards, damit sie Inhalte melden können, die gegen seine Richtlinien verstoßen.

Da die Grenze zwischen menschlichen und synthetischen Inhalten zunehmend verschwimmt, möchten die Menschen wissen, wo die Grenze verläuft sagte der Präsident des Unternehmens für internationale Angelegenheiten, Nick Clegg. „ Menschen entdecken KI-generierte Inhalte oft zum ersten Mal und unsere Benutzer haben uns gesagt, dass sie die Transparenz dieser neuen Technologie schätzen. Daher ist es wichtig, dass wir den Menschen zeigen, ob die fotorealistischen Inhalte, die sie sehen, mithilfe von KI erstellt wurden “.

Meta sagte, es werde in den kommenden Monaten die Etiketten für KI-generierte Bilder einführen. während es sich auf die Wahlen 2024 in vielen Ländern, einschließlich den Vereinigten Staaten, vorbereitet. Das Unternehmen hofft, dass diese Labels den Nutzern helfen werden, fundierte Entscheidungen zu treffen und die Verbreitung von Fehlinformationen auf seinen Plattformen zu verhindern.

Nichtsdestotrotz forderte Metas unabhängig finanzierte, aber unabhängig verwaltete Aufsichtsbehörde das Unternehmen kürzlich auf, seine „inkonsistente“ manipulierte Medienpolitik zu überprüfen. nachdem eine Entscheidung bestätigt wurde, die es erlaubte, ein bearbeitetes Video von Präsident Joe Biden auf Facebook zu behalten.

Leave a Reply

Your email address will not be published. Required fields are marked *