Loading…
SciCAR 2019 has ended
Tuesday, September 10 • 12:00 - 13:00
Barrieren gegen Desinformation: Wie können Wissenschaft und Journalismus zielführend zusammenarbeiten?

Sign up or log in to save this to your schedule, view media, leave feedback and see who's attending!

Feedback form is now closed.
Lecture 1
Automatisierte Erkennung von „Fake News“?
Ulrich Schade
Eine rasche Erkennung von „Fake News“ scheitert daran, dass ein Fakten-Check Zeit benötigt. Im Vortrag wird ein Tool vorgestellt, dass, ähnlich wie ein Spam-Filter, Beiträge in der Sozialen Medien in Echtzeit dahingehend bewertet, ob sie Indizien für „Fake News“ aufweisen. Das Tool lernt dabei mit Verfahren des Maschinellen Lernens auf der Grundlage zweier Korpora, Merkmale von und damit Indizien für „Fake News“ zu erkennen. Diese Merkmale ergeben sich sowohl aus Meta-Daten der Beiträge als auch als sprachliche Merkmale aus deren Texten. Besonders wichtig ist die Auswahl der Beiträge für das Lern-Korpus, welches „Fake News“ enthält. Diese Auswahl bestimmt, auf welche „Fake News“ das Tool hinweisen kann. Im Vortrag soll das Verständnis für die Arbeitsweise der automatischen Erkennung von „Fake News“ gefördert und die Grenzen entsprechender Werkzeuge aufgezeigt werden. Zusätzlich wird darauf hingewiesen, wie „Hate Speech“ die Verbreitung von „Fake News“ unterstützt.

Lecture 2
Die Rolle von Multimedia-Forensik bei der Erkennung von Desinformationen
Martin Steinebach
Digitale Multimedia-Inhalte lassen sich heute mit zahlreichen Werkzeugen in ihrer Aussage manipulieren. Das geht von einfachen Bildretuschen in Photoshop über Bildmontagen bis hin zu sogenannten „deepfakes“, bei denen Personen in Videos anhand Werkzeugen auf Basis von maschinellem Lernen automatisiert ausgetauscht werden. So veränderte Medieninhalte werden auch in Desinformationskampagnen eingesetzt, um falsche Inhalte zu belegen.
Die Multimedia-Forensik bietet hier Gegenmaßnahmen. Veränderungen an Bildern, Videos und auch Ton können erkannt werden. Dabei muss für jeden Typ von Manipulationen eine eigene Lösung gefunden werden; Bildmontagen werden anders erkannt als deepfakes. Im Vortrag werden Beispiele für solche Ansätze aufgezeigt und diskutiert, wie diese zukünftig in der Praxis Journalisten bei der Beurteilung von Meldungen helfen können.
Webseite DORIAN: https://dorian-projekt.sit.fraunhofer.de/
Vortrag Erkennung Bildmanipulationen.
https://www.youtube.com/watch?v=U17v7-Acx04

Translated from german into english

Speakers
avatar for Ulrich Schade

Ulrich Schade

Fraunhofer FKIE
Prof. Dr. Ulrich Schade ist Forschungsgruppenleiter für „Informationsanalyse“ am FKIE am Standort Wachtberg bei Bonn. Seit 2002 ist er zudem mit Lehrtätigkeiten an der Rheinischen Friedrich-Wilhelms-Universität Bonn betraut und wurde 2008 zum alp. Professor der Universität... Read More →
avatar for Martin Steinebach

Martin Steinebach

Media Security and Forensics, Fraunhofer SIT
Martin Steinebach, geboren 1971 in Hanau, studierte von 1992 bis 1999 Informatik an der TU Darmstadt. 1999 wurde er Doktorand am GMD IPSI, 2003 promovierte er an der TU Darmstadt zum Doktor Ingenieur im Fachbereich Informatik mit dem Thema digitaler Audiowasserzeichen. Im Jahre 2007... Read More →


Tuesday September 10, 2019 12:00 - 13:00 CEST
Großer Saal

Attendees (5)