Diese Schwachstellen verhindern, dass Unternehmen Deep Learning anwenden

Autor: Roger Morrison
Erstelldatum: 23 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Linda (14) hat einen Tampon in sich vergessen! | Die Spezialisten | SAT.1
Video: Linda (14) hat einen Tampon in sich vergessen! | Die Spezialisten | SAT.1

Inhalt


Quelle: Agsandrew / Dreamstime.com

Wegbringen:

Deep Learning hat Unternehmen viel zu bieten, aber viele zögern immer noch, es zu übernehmen. Hier sehen wir uns einige der größten Schwachstellen an.

Deep Learning ist ein Teilgebiet des maschinellen Lernens, das (im Allgemeinen) eine Technologie ist, die vom menschlichen Gehirn und seinen Funktionen inspiriert ist. Das erstmals in den 1950er Jahren eingeführte maschinelle Lernen wird durch das sogenannte künstliche neuronale Netzwerk, eine Vielzahl miteinander verbundener Datenknoten, die gemeinsam die Grundlage für künstliche Intelligenz bilden, kumuliert. (Die Grundlagen des maschinellen Lernens finden Sie unter Maschinelles Lernen 101.)

Durch maschinelles Lernen können sich Computerprogramme im Wesentlichen selbst ändern, wenn sie durch externe Daten oder Programmierung dazu aufgefordert werden. Es ist von Natur aus in der Lage, dies ohne menschliche Interaktion zu erreichen. Es verfügt über ähnliche Funktionen wie Data Mining, jedoch mit gewonnenen Ergebnissen, die nicht von Menschen, sondern von Maschinen verarbeitet werden sollen. Es ist in zwei Hauptkategorien unterteilt: überwachtes und unbeaufsichtigtes Lernen.


Überwachtes maschinelles Lernen beinhaltet die Schlussfolgerung vorgegebener Operationen durch gekennzeichnete Trainingsdaten. Mit anderen Worten, überwachte Ergebnisse sind dem (menschlichen) Programmierer im Voraus bekannt, aber das System, das die Ergebnisse herleitet, ist darauf trainiert, sie "zu lernen". Im Gegensatz dazu werden beim unbeaufsichtigten maschinellen Lernen Schlussfolgerungen aus unbeschrifteten Eingabedaten gezogen, um häufig unbekannte Muster zu erkennen.

Deep Learning ist einzigartig in seiner Fähigkeit, sich durch hierarchische Algorithmen zu trainieren, im Gegensatz zu den linearen Algorithmen des maschinellen Lernens. Deep-Learning-Hierarchien werden im Laufe ihrer Entwicklung (oder „Lernens“) immer komplexer und abstrakter und verlassen sich nicht auf überwachte Logik. Einfach ausgedrückt, Deep Learning ist eine hochentwickelte, genaue und automatisierte Form des maschinellen Lernens und steht an der Spitze der Technologie der künstlichen Intelligenz.


Geschäftsanwendungen des Deep Learning

Maschinelles Lernen wird bereits häufig in verschiedenen Branchen eingesetzt. Social Media verwendet es beispielsweise, um Content-Feeds in Benutzerzeitleisten zu kuratieren. Google Brain wurde vor einigen Jahren mit dem Ziel gegründet, Deep Learning für das gesamte Leistungsspektrum von Google im Zuge der technologischen Weiterentwicklung zu produzieren.

Mit seinem Fokus auf Predictive Analytics wird der Bereich Marketing insbesondere in Deep Learning-Innovationen investiert. Und da die Anhäufung von Daten die Technologie antreibt, sind Branchen wie Vertrieb und Kundenbetreuung (die bereits über eine Fülle von umfangreichen und vielfältigen Kundendaten verfügen) in einer einzigartigen Position, um diese auf dem Boden zu übernehmen.

Eine frühzeitige Anpassung an tiefgreifendes Lernen könnte sehr wohl der entscheidende Faktor dafür sein, inwieweit bestimmte Sektoren von der Technologie profitieren, insbesondere in ihren frühesten Phasen. Einige spezifische Schwachpunkte hindern jedoch viele Unternehmen daran, tiefgreifende Investitionen in Lerntechnologien zu tätigen.

Das V von Big Data und Deep Learning

Ein Analyst für die META Group (jetzt Gartner) mit dem Namen Doug Laney beschrieb 2001, was die Forscher als die drei Hauptherausforderungen von Big Data ansahen: Volumen, Vielfalt und Geschwindigkeit. Über eineinhalb Jahrzehnte später hat die rasche Zunahme der Internetzugangsstellen (hauptsächlich aufgrund der Verbreitung mobiler Geräte und der Verbreitung der IoT-Technologie) diese Probleme für große Technologieunternehmen und kleinere Unternehmen in den Vordergrund gerückt und Startups gleichermaßen. (Weitere Informationen zu den drei Vs finden Sie unter Heutige Big Data-Herausforderung ergibt sich aus Vielfalt, nicht aus Lautstärke oder Geschwindigkeit.)

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Die jüngsten Statistiken zur globalen Datennutzung sind erstaunlich. Studien zufolge wurden rund 90 Prozent aller Daten der Welt erst in den letzten Jahren erstellt. Laut einer Schätzung betrug der weltweite mobile Datenverkehr im Jahr 2016 etwa sieben Exabyte pro Monat, und es wird erwartet, dass sich diese Zahl in der nächsten Hälfte des Jahrzehnts um etwa das Siebenfache erhöhen wird.

Neben dem Volumen spielen auch die Vielfalt (die rasch zunehmende Vielfalt der Datentypen bei der Entwicklung und Erweiterung neuer Medien) und die Geschwindigkeit (die Geschwindigkeit, mit der elektronische Medien an Rechenzentren und Hubs gesendet werden) eine wichtige Rolle bei der Anpassung der Unternehmen an das aufkeimende Umfeld des tiefen Lernens. Um das mnemonische Gerät zu erweitern, wurden in den letzten Jahren einige andere V-Wörter in die Liste der Big-Data-Schwachstellen aufgenommen, darunter:

  • Gültigkeit: Die Messung der Genauigkeit von Eingabedaten in Big Data-Systemen. Ungültige Daten, die nicht erkannt werden, können erhebliche Probleme sowie Kettenreaktionen in maschinellen Lernumgebungen verursachen.
  • Sicherheitslücke: Big Data löst aufgrund seiner Größe natürlich Sicherheitsbedenken aus. Und obwohl in Sicherheitssystemen, die durch maschinelles Lernen aktiviert werden, ein großes Potenzial gesehen wird, sind diese Systeme in ihrer gegenwärtigen Form für ihre mangelnde Effizienz bekannt, insbesondere aufgrund ihrer Tendenz, Fehlalarme zu generieren.
  • Wert: Der Nachweis des potenziellen Werts von Big Data (in Unternehmen oder anderswo) kann aus einer Reihe von Gründen eine erhebliche Herausforderung darstellen. Wenn einer der anderen Schwachpunkte in dieser Liste nicht effektiv angegangen werden kann, können sie tatsächlich jedem System oder jeder Organisation einen negativen Wert verleihen, möglicherweise sogar mit katastrophalem Effekt.

Zu den weiteren alliterativen Schwachpunkten, die der Liste hinzugefügt wurden, zählen Variabilität, Wahrhaftigkeit, Volatilität und Visualisierung - alle stellen Big-Data-Systeme vor ihre eigenen Herausforderungen. Und möglicherweise werden noch weitere hinzugefügt, da die vorhandene Liste (wahrscheinlich) mit der Zeit abnimmt. Während es für manche ein wenig kompliziert zu sein scheint, umfasst die mnemonische „v“ -Liste schwerwiegende Probleme mit Big Data, die für die Zukunft des Deep Learning eine wichtige Rolle spielen.

Das Black-Box-Dilemma

Eines der attraktivsten Merkmale von Tiefenlernen und künstlicher Intelligenz ist, dass beide Probleme lösen sollen, die der Mensch nicht lösen kann. Dieselben Phänomene, die dies ermöglichen sollen, stellen jedoch auch ein interessantes Dilemma dar, das sich in der sogenannten "Black Box" niederschlägt.

Das neuronale Netzwerk, das durch den Prozess des tiefen Lernens entsteht, ist so groß und so komplex, dass seine komplexen Funktionen für die menschliche Beobachtung im Wesentlichen unergründlich sind. Datenwissenschaftler und -ingenieure wissen zwar genau, was in Deep-Learning-Systemen steckt, aber wie sie zu ihren Output-Entscheidungen gelangen, bleibt meistens völlig ungeklärt.

Während dies beispielsweise für Marketing- oder Vertriebsmitarbeiter kein wesentliches Problem darstellt (je nachdem, was sie vermarkten oder verkaufen), erfordern andere Branchen ein gewisses Maß an Prozessvalidierung und Argumentation, um die Ergebnisse nutzen zu können. Beispielsweise könnte ein Finanzdienstleistungsunternehmen Deep Learning einsetzen, um einen hocheffizienten Kreditbewertungsmechanismus einzurichten. Aber Kredit-Scores müssen oft mit einer verbalen oder schriftlichen Erklärung versehen sein, die schwierig zu formulieren ist, wenn die tatsächliche Kredit-Scoring-Gleichung völlig undurchsichtig und unerklärlich ist.

Dieses Problem erstreckt sich auch auf viele andere Bereiche, insbesondere im Bereich Gesundheit und Sicherheit. Medizin und Transport könnten beide in erheblichem Maße von Deep Learning profitieren, stoßen aber auch mit der Black Box auf ein erhebliches Hindernis. Alle Ausgaben in diesen Feldern, egal wie nützlich sie auch sein mögen, könnten aufgrund der völligen Unklarheit der zugrunde liegenden Algorithmen gänzlich verworfen werden. Dies bringt uns zu dem vielleicht umstrittensten Schmerzpunkt von allen…

Verordnung

Im Frühjahr 2016 hat die Europäische Union die Datenschutzgrundverordnung (DSGVO) verabschiedet, die den Bürgern (unter anderem) das Recht auf eine Erklärung für automatisierte Entscheidungen einräumt, die von maschinellen Lernsystemen getroffen werden, die sie „erheblich beeinflussen“. Die Verordnung wird voraussichtlich 2018 in Kraft treten und sorgt bei Technologieunternehmen, die in Deep Learning investieren, aufgrund ihrer undurchdringlichen Black Box für Besorgnis, was in vielen Fällen die von der DSGVO vorgeschriebene Erklärung behindern würde.

Die „automatisierte individuelle Entscheidungsfindung“, die die DSGVO einschränken will, ist ein wesentliches Merkmal des Tiefenlernens. Bedenken hinsichtlich dieser Technologie sind jedoch unvermeidlich (und weitgehend berechtigt), wenn das Diskriminierungspotenzial so hoch und die Transparenz so gering ist. In den USA regelt die Food and Drug Administration in ähnlicher Weise die Prüfung und Vermarktung von Arzneimitteln, indem verlangt wird, dass diese Prozesse nachvollziehbar bleiben. Dies stellte Hindernisse für die Pharmaindustrie dar, wie dies Berichten zufolge für das in Massachusetts ansässige Biotechnologieunternehmen Biogen der Fall war, das aufgrund der FDA-Vorschrift daran gehindert wurde, nicht interpretierbare Deep-Learning-Methoden anzuwenden.

Die Implikationen des tiefen Lernens (moralisch, praktisch und darüber hinaus) sind beispiellos und offen gesagt ziemlich tiefgreifend. Die Technologie ist in hohem Maße besorgt, was zu einem großen Teil auf die Kombination ihres störenden Potenzials und ihrer undurchsichtigen Logik und Funktionalität zurückzuführen ist.Wenn Unternehmen in Deep Learning nachweisen können, dass es einen greifbaren Wert gibt, der alle denkbaren Bedrohungen oder Gefahren übersteigt, können sie uns durch die nächste kritische Phase der künstlichen Intelligenz führen.