Kann AI gefälschte Nachrichten erkennen?

Autor: Laura McKinney
Erstelldatum: 4 April 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Kann AI gefälschte Nachrichten erkennen? - Technologie
Kann AI gefälschte Nachrichten erkennen? - Technologie

Inhalt


Quelle: Mast3r / Dreamstime.com

Wegbringen:

Forscher wenden sich an AI, um gefälschte Nachrichten zu bekämpfen. Aber kann es wirklich helfen oder wird es die Dinge nur noch schlimmer machen?

Es wird erwartet, dass gefälschte Nachrichten die bevorstehenden Präsidentschaftswahlen erheblich beeinträchtigen werden, ganz zu schweigen von der allgemeinen Korrosion des öffentlichen Diskurses. In der heutigen vernetzten Gesellschaft wird es immer schwieriger, Fakten von Fiktionen zu unterscheiden, weshalb sich einige Forscher auf die Kraft der künstlichen Intelligenz konzentrieren, um dieses Problem anzugehen.

Die Hoffnung ist natürlich, dass Maschinen oder genauer gesagt Algorithmen besser als Menschen darin sind, Lügen zu erkennen. Aber ist dies eine realistische Erwartung oder nur ein weiterer Fall, in dem Technologie auf ein scheinbar unlösbares Problem geworfen wird?

Einen Dieb fangen. . .

Eine Möglichkeit, wie Datenwissenschaftler den KI-Scharfsinn in diesem Bereich schärfen wollen, besteht darin, gefälschte Nachrichten zu generieren. Das Allen Institute for AI an der University of Washington hat Grover entwickelt und veröffentlicht, eine Engine für die Verarbeitung natürlicher Sprachen, die dazu dient, falsche Geschichten zu einer Vielzahl von Themen zu erstellen. Dies mag auf den ersten Blick kontraproduktiv erscheinen, es handelt sich jedoch tatsächlich um eine ziemlich verbreitete KI-Trainingstaktik, bei der eine Maschine die Ausgabe einer anderen analysiert. Auf diese Weise kann die Analyseseite viel schneller auf den neuesten Stand gebracht werden, als wenn man sich auf tatsächliche Fälschungen verlässt. Das Institut behauptet, dass Grover bereits mit einer Genauigkeitsbewertung von 92% arbeiten kann, es ist jedoch wichtig zu beachten, dass es nur in der Lage ist, zwischen AI-generierten Inhalten und von Menschen generierten Inhalten zu unterscheiden, was bedeutet, dass eine intelligente Person immer noch eine falsche Geschichte erzählen kann es ist Vergangenheit. (Weitere Informationen finden Sie unter Die Technologien zur Bekämpfung gefälschter Nachrichten.)


In den richtigen Händen kann Grover natürlich schnell unser Verständnis dafür verbessern, wie falsche Nachrichten entstehen und wie sie sich verbreiten, und dies kann theoretisch verwendet werden, um sie in der realen Welt zu vereiteln. Wie Futurism.com kürzlich feststellte, sind einige Experten, die das System für einen Testlauf verwendet haben, alarmiert darüber, wie effektiv es ist, glaubwürdige Lügen zu erschaffen und sogar den Schreibstil legitimer Nachrichtenagenturen wie dem Wall Street Journal und New York nachzuahmen Mal.

Aber da Lügen von Natur aus eine intuitive und emotionsgesteuerte Handlung ist, ist es möglich, dass selbst die intelligentesten Maschinen, die immer noch von kalter, harter Logik angetrieben werden, jemals den Grad an konkretem Verständnis erreichen können, der zum Erkennen einer Lüge erforderlich ist? Maria Almeida von Unbabel bemerkte kürzlich, dass manche Iterationen zwar ziemlich gut darin werden, aber kein Algorithmus auf ein vollständiges menschliches Verständnis hoffen kann. Dies bedeutet, dass KI möglicherweise dramatische Verbesserungen bei der Überprüfung von Fakten und der vergleichenden Analyse erzielen kann. Der letzte Aufruf sollte jedoch geschulten Experten überlassen werden.


Ironischerweise wird diese Funktion jedoch am nützlichsten sein, wenn es darum geht, die vielen gefälschten Videos zu erkennen, die in den sozialen Medien auf dem Vormarsch sind. Mit AI, das visuelle Daten bis zu einzelnen Pixeln analysieren kann, kann es veränderte Bilder besser erkennen als veränderte Wörter und Konzepte.

Laut Charles Towers-Clark von Forbes besteht das zentrale Problem bei gefälschten Nachrichten jedoch nicht darin, dass ein paar Leute es erschaffen, sondern dass so viele Menschen davon beeinflusst werden. Die Leute neigen dazu zu glauben, was sie glauben wollen, nicht was die Fakten sie dazu bringen zu glauben. Selbst wenn eine hochentwickelte KI-Engine feststellt, dass ihre Überzeugung falsch ist, werden die Menschen eher an der Maschine als an sich selbst zweifeln.

„Die Implementierung von maschinellem Lernen zur Bekämpfung der Verbreitung von gefälschten Nachrichten ist bewundernswert“, sagt er. Aber mit der Verbreitung von Fehlinformationen, die durch soziale Medien verstärkt werden, kann das Erkennen und Aufdecken von Quellen gefälschter Nachrichten den menschlichen Instinkt überwinden, zu glauben, was uns gesagt wird? “

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Die eigentliche Herausforderung besteht also nicht darin, gefälschte Nachrichten zu identifizieren und zu entlarven, sondern zu verstehen, warum sie sich in den sozialen Medien so viel schneller verbreiten als echte Nachrichten. Zum Teil liegt dies an der Natur der falschen Nachrichten selbst, die im Vergleich zur vergleichenden Langeweile der Realität aufregend und aufregend sind. Ist es letztendlich realistisch zu erwarten, dass die Technologie das korrigiert, was im Wesentlichen ein nicht technisches Problem ist? (Weitere Informationen zum Wechsel der KI-Medien finden Sie unter 5 KI-Fortschritte in Publishing und Medien.)

Den Spread stoppen

Aus diesem Grund ist es wichtig, AI auf den technischen Aspekt gefälschter Nachrichten und nicht auf den menschlichen Aspekt zu konzentrieren, sagt Robin Harris von ZDNet. In der Tat trainieren die meisten Forscher KI, um Dinge wie die Unterscheidung zwischen natürlichen und künstlichen Ausbreitungsmustern über soziale Netzwerke zu lernen. Wichtige Kennzahlen wie Conversion Tree Rates, Retweet-Timing und allgemeine Antwortdaten können verwendet werden, um Desinformationskampagnen zu identifizieren und zu neutralisieren, selbst wenn ihre Quelle unter Schichten digitaler Subterfuge verborgen ist. Gleichzeitig kann AI zur Verwaltung anderer Technologien wie der Blockchain verwendet werden, um nachvollziehbare und überprüfbare Informationskanäle zu erhalten.

Fakt ist, dass gefälschte Nachrichten kein neues Phänomen sind. Aus dem durchgeknallten Journalismus der frühen 20th Jahrhundert bis zur Propaganda der frühesten Zivilisationen ist es eine altehrwürdige Tradition, die Öffentlichkeit zu blenden, sowohl für die amtierenden Regierungen als auch für die Revolutionäre. Der Unterschied besteht heute darin, dass die digitale Technologie diese Fähigkeit so demokratisiert hat, dass fast jeder in wenigen Stunden eine Lüge veröffentlichen und beobachten kann, wie sie sich auf der ganzen Welt ausbreitet.

Technologien wie die KI können sicherlich dazu beitragen, diese Verwirrung zu verdeutlichen, aber nur Menschen können die Wahrheit vollständig verstehen und beurteilen.