Mit großem Fortschritt kommt große Verantwortung

Autor: Roger Morrison
Erstelldatum: 27 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Mit großem Fortschritt kommt große Verantwortung - Technologie
Mit großem Fortschritt kommt große Verantwortung - Technologie

Inhalt


Quelle: Mike2focus / Dreamstime.com

Wegbringen:

Der Medienkonsum entwickelt sich zusammen mit technologischen Fortschritten wie künstlicher Intelligenz (KI). Während wir uns im Allgemeinen auf den Fortschritt einlassen, müssen wir uns auch der Nachteile einiger Formen der Technologie bewusst sein. Die Fähigkeit von AI hat eine dunkle Seite, wenn sie dazu verwendet wird, falsche Nachrichten zu bewerben.

Die dunkle Seite der Technologie war eines der Themen der zweiten Machines + Media-Konferenz von NYC Media Lab, die am 15. Mai von Bloomberg in seinem globalen Hauptsitz in der Stadt gesponsert und veranstaltet wurde steht derzeit den Medien zur Verfügung, auch solchen, die den Schatten von Manipulationen und Fehlinformationen werfen.

Eine gute Geschichte ist überzeugender als die ganze Wahrheit

In der Sitzung mit dem Titel „State of the Art“ wies Gilad Lotan, VP, Leiter Data Science, Buzzfeed darauf hin, dass das Problem gefälschter oder irreführender Nachrichten nicht nur Medienunternehmen oder neuen Technologien angelastet werden könne. "Die Leute suchen nicht unbedingt nach Fakten", sagte er. "Leser wollen Geschichten."


Er fügte hinzu, dass das Füttern dieses Verlangens nach Geschichten und bevorzugten Erzählungen zu falschen Nachrichten führen kann, die "mehr Manipulation als falsche Informationen" sind. Tatsächlich enthält die gelieferte Geschichte möglicherweise überhaupt nichts Falsches. Das Falsche daran ist, dass die gemeldeten Fakten aus dem größeren "Betrug" herausgegriffen und entfernt werden, um "Leser zu einer Schlussfolgerung zu führen".

In der Sitzung „Platform + Media“ sagte Kelly Born von der US Democracy Initiative der William and Flora Hewlett Foundation: „Menschen mögen Nachrichten, die ihren Glauben stärken und vor allem, wenn sie Empörung auslösen.“ Sie warnte vor der Kapitalisierung der Medien bei dieser tendenz kann es zu einem „perfekten sturm“ kommen, der das schlimmste in uns rausholt. Dies wird durch die Möglichkeit vollständig gefertigter Präsentationen noch verstärkt.


Glaubt das Sehen noch?

Technologie spielt eine Rolle, wenn es darum geht, die Geschichte durch Bilder und Videos zu erzählen. Wir glauben normalerweise, was wir sehen, es sei denn, es gibt offensichtliche Anzeichen von Manipulation. Da jedoch die KI den Realismus von gefälschten Videos verbessert, ist es jetzt möglich, öffentlichen Personen buchstäblich Worte in den Mund zu legen. (AI wird nicht nur für ruchlose Zwecke verwendet. Sehen Sie sich einige konstruktive Möglichkeiten an, die Unternehmen möglicherweise in Betracht ziehen, AI zu verwenden.)

Die Gefahr, dass AI sehr glaubwürdige Videos produziert, wurde in der Sitzung mit dem Titel "Lösungen für die dunkle Seite maschinengetriebener Medien" aufgezeigt. Sie begann mit einem Video, in dem Barack Obama Dinge sagte, die der frühere Präsident noch nie gesagt hatte. Die Bewegung stimmte immer noch nicht mit den Worten überein, so dass sie einige Spuren eines gefälschten Videos aufweist und die meisten Zuschauer sagten, sie könnten es als Fälschung erkennen.

Diese Obama-Videomanipulation hat nicht den Realismus erreicht, Peter Cushing als Grand Moff Tarkin für „Rogue One“ wiederzubeleben. Wie in einem Artikel der New York Times erläutert, wurde der Effekt dadurch erzielt, dass ein Schauspieler „Motion-Capture-Materialien“ auf dem Kopf trug. vor der Kamera, "damit sein Gesicht durch eine digitale Nachbildung von Cushings ersetzt werden kann". Der Chefkreativdirektor / leitende Visuelle-Effekte-Leiter des Films nannte es "eine super Hightech- und arbeitsintensive Version des Tuns" bilden."

Nicht nachweisbare Fälschungen

Dank der Fortschritte der KI, insbesondere der generativen gegnerischen Netzwerke (GANs), ist es jetzt einfacher denn je, Filmmagieeffekte zu erzielen. Mithilfe von GANs verfeinert ein KI-System das Filmmaterial, bis es von einem KI-System zur Erkennung von Fälschungen als real akzeptiert wird.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

In diesem Video sehen Sie, wie Forscher demonstrieren, wie ein Schauspieler die Bewegungen des Gesichts einer Persönlichkeit im öffentlichen Raum so steuern kann, dass sie einen Ausdruck und eine Aussprache mit dem Grad an Wiedergabetreue erzeugen, den man in Doktorvideos normalerweise nicht findet.

Während derzeit nicht jeder, der mit Videos herumspielt, über ein solches System verfügt, wird die Software in naher Zukunft für mehr Menschen in Reichweite sein.

Mögliche Konsequenzen

Dhruv Ghulati, Gründer und CEO von Factmata, sagt, er sei "sehr besorgt" darüber, wie diese Fähigkeit eingesetzt werden könnte, um nicht nur die Gesichter von Weltführern, sondern auch von CEOs und Prominenten in Videos zu zeigen, dass sie etwas gesagt oder getan haben, was sie nicht getan haben . Die zerstörerischen Kräfte des Videos würden durch die Erzielung eines Viruseffekts durch Botnets verstärkt.

Das bedeutet, dass wir unseren Lügen nicht mehr vertrauen können, erklärte Mor Naaman, Associate Professor für Informationswissenschaft, Cornell Tech. Er befürchtete einen Vertrauensverlust.

Andere sind besorgt darüber, die Flammen der Gewalt zu entfachen. Bereits „nur geringfügig veränderte Videos“ werden „zur Verursachung von Gewalt in den Entwicklungsländern verwendet“, stellte Aviv Ovadya, Cheftechnologe des Centers for Social Media Responsibility, fest. (Social Media kann eine effektive Möglichkeit sein, falsche Informationen zu verbreiten. Schauen Sie sich die 4 verheerendsten Feed-Hacks an.)

Sarah Hudson, Partnerin von Investing in US, äußerte sich besorgt darüber, dass manipulierte Bilder "im Maßstab" eine "unglaubliche Bedrohung für die öffentliche Sicherheit" darstellen.

Proaktive Planung

Es ist unerlässlich, "so viel wie möglich von diesem Missbrauch zu verhindern", sagte Ovadya. Aus diesem Grund ist es wichtig, „bei der Entwicklung der Technologie im Voraus zu überlegen“, „wie die negativen Auswirkungen gemindert werden können“ und „Ressourcen für die Bewältigung dieser unbeabsichtigten Folgen bereitzustellen“.

Es ist unmöglich, den Fortschritt zurückzudrehen, aber wir müssen sicherstellen, dass die Richtung, in die wir gehen, durchdacht und geplant ist. Das bedeutet, nicht nur an der Technologie zu arbeiten, um zu sehen, was getan werden kann, sondern auch darüber nachzudenken, was getan werden kann, das abgewendet werden sollte.

Der Weg für technologische Innovationen besteht darin, über die möglichen Auswirkungen nachzudenken und Schutzmaßnahmen zu planen, bevor die Gefahren eintreten. Dazu benötigen wir die Zusammenarbeit zwischen Forschern, Technologieunternehmen und Regierungsbehörden, um Standards und Best Practices festzulegen, die von den Menschen befolgt werden. Das sollte für alle Beteiligten Priorität haben.