Warum müssen sich KI-Ingenieure um intuitive Motoren sorgen?

Autor: Roger Morrison
Erstelldatum: 26 September 2021
Aktualisierungsdatum: 19 Juni 2024
Anonim
Warum müssen sich KI-Ingenieure um intuitive Motoren sorgen? - Technologie
Warum müssen sich KI-Ingenieure um intuitive Motoren sorgen? - Technologie

Inhalt

Q:

Warum müssen sich KI-Ingenieure um "intuitive Motoren" sorgen?


EIN:

Die Idee der menschlichen Intuition ist heute ein wesentlicher Bestandteil der bahnbrechenden Arbeit mit künstlicher Intelligenz - weshalb KI-Ingenieure „intuitiven Motoren“ und ähnlichen Modellen so viel Aufmerksamkeit schenken. Wissenschaftler arbeiten daran, den Prozess der menschlichen Intuition zu knacken und ihn mit Entitäten künstlicher Intelligenz zu simulieren. Bei der Untersuchung der Funktionsweise von Logik und Intuition in neuronalen Netzen und anderen KI-Technologien wird die Definition der Intuition selbst jedoch etwas subjektiv.

Eines der besten Beispiele ist der Einsatz eines neuen, talentierten Supercomputers, um menschliche Champions im Go-Spiel zu schlagen - ein Spiel, das oft als etwas intuitiv beschrieben wird, obwohl es auch auf harter Logik beruht. Da Googles AlphaGo erfahrene menschliche Spieler besiegt hat, gibt es viele Spekulationen darüber, wie gut Computer eine menschliche Intuition haben. Wenn Sie sich jedoch die Struktur des Go-Spiels ansehen, werden Sie feststellen, dass beim tatsächlichen Aufbau dieser Technologien eine Menge zu bestimmen ist, um herauszufinden, wie stark sie auf Intuition und wie stark sie auf umfangreiche Logikmodelle angewiesen sind .


In einem Go-Spiel kann ein Mensch eine Bewegung gut platzieren, basierend auf einer intuitiven Wahrnehmung oder einer Logik mit großer Reichweite oder einer Mischung aus beiden. Ebenso können Computer auf der Grundlage umfassender logischer Modelle, die das intuitive Spielen in gewissem Umfang widerspiegeln oder simulieren können, professionelle Go-Play-Modelle erstellen. Wenn man darüber spricht, wie gut die Computer in intuitiven Modellen sind, ist es wichtig, Intuition zu definieren, was die wissenschaftliche Gemeinschaft nicht vollständig getan hat.

Mary Jolly von der Universität Lissabon nimmt in einem Artikel mit dem Titel "Das Konzept der Intuition in der künstlichen Intelligenz" unterschiedliche Meinungen zu Definitionen von Intuition zur Kenntnis.

"Unter Wissenschaftlern besteht kein Konsens über die Definition des Konzepts", schreibt Jolly. „Bis vor kurzem hat die Intuition strengen wissenschaftlichen Untersuchungsmethoden nicht nachgegeben und wurde von Forschern häufig mit Mystik in Verbindung gebracht. Bisher mangelte es dem Diskurs zu diesem Thema an Kohärenz und Methodik. “


Wenn das Konzept der Intuition an sich vage ist, wird die Messung der Leistungsfähigkeit der künstlichen Intelligenz in der Intuitionssimulation noch problematischer.

Eine Erklärung der Verfasser eines Papers mit dem Titel "Implementierung eines menschenähnlichen Intuitionsmechanismus in der künstlichen Intelligenz" schlägt Folgendes vor:

Die menschliche Intuition wurde in mehreren Forschungsprojekten mit Techniken der künstlichen Intelligenz simuliert. Die meisten dieser Algorithmen oder Modelle sind nicht in der Lage, mit Komplikationen oder Umleitungen umzugehen. Darüber hinaus erklären sie auch nicht die Einflussfaktoren auf die Intuition und die Genauigkeit der Ergebnisse aus diesem Prozess. In diesem Artikel präsentieren wir ein einfaches serienbasiertes Modell für die Implementierung menschlicher Intuition unter Verwendung der Prinzipien der Konnektivität und unbekannter Entitäten.

Für einen vielleicht konkreteren Blick auf den Prozess der menschlichen Intuition zitiert ein Artikel von Wired die MIT-Forschung zur Erklärung der „intuitiven Physik-Engine“ des menschlichen Geistes - die erklärt, was passiert, wenn wir einen Stapel von Objekten betrachten. Wir können intuitiv verstehen, ob Objekte wahrscheinlich fallen oder ob sie stabil oder stetig sind, aber diese Intuition basiert auf umfangreichen logischen Regeln, die im Laufe der Zeit verinnerlicht wurden, sowie auf unseren direkten Visions- und Wahrnehmungsmodellen.

Der Autor Joi Ito weist darauf hin, dass die Systeme, in denen wir unsere Physik-Engines intuitiv einsetzen, „laut“ sind und wir dieses Rauschen herausfiltern können. Das war ein großer Teil der Entwicklung künstlicher Intelligenz - Sinn aus lauten Modellen zu extrahieren. Diese Modelle müssen jedoch noch viel weiter gehen, um die Art von Vorhersagen und Analysen zu treffen, die der Mensch auf komplexe Systeme anwenden kann.

Um dieses Ergebnis zu erzielen, müssten Computer ein ausgeklügeltes Sehen mit umfassender Logik und Wahrnehmung auf eine Weise verbinden, die sie derzeit nicht können. Eine andere Möglichkeit, dies zu erklären, ist, dass wir das menschliche Gehirn als eine „Black Box“ betrachten, die von der Technologie nicht vollständig rückentwickelt wurde. Obwohl unsere Technologien in hohem Maße in der Lage sind, intelligente Ergebnisse zu erzielen, können sie die mächtigen, mysteriösen und erstaunlichen Aktivitäten des menschlichen Gehirns selbst noch nicht simulieren.