Kann KI im Kampf gegen falsche Nachrichten helfen?

Autor: Roger Morrison
Erstelldatum: 27 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Künstliche Intelligenz: DAS kann KI wirklich! mit @Cinema Strikes Back
Video: Künstliche Intelligenz: DAS kann KI wirklich! mit @Cinema Strikes Back

Inhalt

Q:

Kann KI im Kampf gegen falsche Nachrichten helfen oder macht es die Dinge nur noch schlimmer?


EIN:

Künstliche Intelligenz (KI) und falsche Nachrichten scheinen unausweichlich miteinander verbunden zu sein. Einerseits behaupten Kritiker der neuesten Technologien, dass KI- und Automatisierungsprozesse dazu beigetragen haben, der hilflosen Öffentlichkeit eine Apokalypse offensichtlich falscher Geschichten zu entlocken. Auf der anderen Seite entwickeln einige der besten wissenschaftlichen Köpfe der Welt auf ihrer unerbittlichen Suche nach der Wahrheit bereits neue KI-gestützte Lösungen, mit denen betrügerische Geschichten aufgedeckt werden können. Werden sie der Herausforderung gewachsen sein?

Um ehrlich zu sein, ist es noch zu früh, eine eindeutige Antwort zu geben, da diese Technologien derzeit entwickelt werden. Aber es ist leicht zu verstehen, wie groß die Investitionen sind, die sie von einigen der größten Social-Media-Unternehmen und Content-Publishern anziehen. Google selbst hat kürzlich angekündigt, dass die Google News-Plattform leistungsstarke Software für maschinelles Lernen implementieren wird, um irreführendes Material zu verwerfen.


Einer der Hauptgründe, warum gefälschte Nachrichten schnell zu einer Epidemie wurden, ist, dass sie für Leser / Zuschauer attraktiver oder ansprechender sind. Einige KI bauen auf dieser Annahme auf, und ihre Algorithmen für maschinelles Lernen werden bereits seit Jahren im Kampf gegen Spam und Phishing trainiert.

Diese Methode wird derzeit von einem als Fake News Challenge bekannten Expertenkollektiv getestet, das sich freiwillig für den Kreuzzug gegen falsche Nachrichten gemeldet hat. Ihre KI basiert auf der Positionserkennung, einer Schätzung der relativen Perspektive (oder Position) des Körpers eines Artikels im Vergleich zur Überschrift. Dank seiner Analysemöglichkeiten kann AI die Wahrscheinlichkeit einschätzen, dass der Text von einem echten Menschen und nicht von einem Spambot geschrieben wurde, indem der tatsächliche Inhalt mit der Überschrift verglichen wird. Es ist buchstäblich eine gute KI gegen eine böse KI, und wenn es sich wie Autobots gegen Decepticons anhört, ist es genau das, was es ist.


Eine andere Methode beinhaltet einen automatisierten und schnellen Vergleich aller ähnlichen Nachrichten, die auf mehreren Medien veröffentlicht wurden, um festzustellen, inwieweit sich die dargestellten Fakten unterscheiden. Wenn eine bestimmte Website gefälschte Nachrichten verbreitet, kann dies im Idealfall als unzuverlässige Quelle gekennzeichnet und aus den Newsfeeds ausgeschlossen werden. Google News wird diese Methode wahrscheinlich verwenden, da angekündigt wurde, Inhalte aus einigen noch zu definierenden "vertrauenswürdigen Nachrichtenquellen" zu verwenden. Auf diese Weise werden die Leute von extremen Inhalten - wie bei YouTube mit Flat-Earthers - verdrängt und auf genau definierte "maßgebliche Quellen" verwiesen.

Schließlich könnten andere einfachere Algorithmen verwendet werden, um a zu analysieren und nach offensichtlichen Grammatik-, Interpunktions- und Rechtschreibfehlern zu suchen, falsche oder erfundene Bilder zu finden und die dekonstruierten semantischen Komponenten eines Artikels mit seriösen Quellen abzugleichen.