Warum superintelligente AIs nicht bald die Menschen zerstören

Autor: Roger Morrison
Erstelldatum: 1 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Warum superintelligente AIs nicht bald die Menschen zerstören - Technologie
Warum superintelligente AIs nicht bald die Menschen zerstören - Technologie

Inhalt


Quelle: Willyambradberry / Dreamstime.com

Wegbringen:

Trotz einiger großartiger Science-Fiction-Ideen erklären Experten, dass KI uns in Bezug auf geistige Überlegenheit wahrscheinlich nicht direkt bedrohen wird.

Wenn Sie darauf achten, worüber die Leute im Technologiebereich sprechen, haben Sie vielleicht gehört, dass einige der Bedenken von Elon Musk, Bill Gates und anderen in Bezug auf superintelligente KI-Technologien bestehen Bei all dem, was mit Cassandra zu tun hat, steckt immer noch eine Fülle von Bedenken und Überlegungen dahinter.

Fragen im Überfluss: Werden Roboter schlauer als Menschen? Übernimmt die KI unsere Arbeit und unser Leben? Wird die Technologie beginnen, den Menschen zu kontrollieren, und werden Probleme mit missbrauchter KI zu Gewalt und Zerstörung führen?

Für viele Experten ist die Antwort ein klares „Nein“, das auf der tatsächlichen Art und Weise basiert, wie wir die heutigen Technologien entwickeln. Die meisten würden zustimmen, dass wir ethische, erklärbare Rahmenbedingungen benötigen, um KI- und ML-Technologien zu steuern - aber sie stimmen nicht überein, dass Roboter-Overlords ein vorgegebenes Ergebnis sind.


Lassen Sie uns einen Blick auf die Debatte um Superintelligenz werfen und herausfinden, warum viele Technologen zuversichtlich sind, dass die Menschen in ein paar hundert Jahren noch die Zügel in der Hand haben werden.

Menschen übernehmen die Führung

Wenn Sie über AI-Probleme berichten, ist Grady Booch ein Name, der häufig vorkommt. Booch war Pionier der Unified Modeling Language (UML) und arbeitete zu Beginn des Jahrtausends an Schlüsseltechnologien für IBM.

Ein TED-Vortrag von Booch zeigt etwas von seinem Optimismus bezüglich der Arten von KI, die wir früher als Science-Fiction betrachteten.

Erstens, argumentiert er, wird menschliches Training seine eigene Ethik und Normen in die Funktionsweise von KI-Systemen einfließen lassen.

"Wenn ich einen künstlich intelligenten Rechtsassistenten schaffen möchte, werde ich ihm eine Reihe von Gesetzen beibringen, aber gleichzeitig verschmelze ich damit das Gefühl von Barmherzigkeit und Gerechtigkeit, das Teil dieses Gesetzes ist", sagt Booch. „In wissenschaftlicher Hinsicht nennen wir dies die Grundwahrheit, und hier ist der wichtige Punkt: Bei der Herstellung dieser Maschinen vermitteln wir ihnen daher ein Gefühl für unsere Werte. Zu diesem Zweck vertraue ich einer künstlichen Intelligenz genauso, wenn nicht sogar mehr, wie einem gut ausgebildeten Menschen. “(Weitere Informationen zur Zukunft (und Vergangenheit) der KI finden Sie unter Denkmaschinen: Die Debatte über künstliche Intelligenz.)


Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Später im Gespräch bringt Booch ein anderes Argument vor, warum wir keine Übernahme durch Technologien fürchten müssen.

"(Eine existenzielle Bedrohung der Menschheit durch Technologie) müsste mit einer Superintelligenz sein", sagt Booch. „Es müsste die Herrschaft über unsere ganze Welt haben. Dies ist das Material von Skynet aus dem Film "The Terminator", in dem wir eine Superintelligenz hatten, die den menschlichen Willen befahl und die jedes Gerät ansteuerte, das sich in jeder Ecke der Welt befand. In der Praxis wird es nicht passieren. Wir bauen keine KIs, die das Wetter kontrollieren, die die Gezeiten lenken, die uns launische, chaotische Menschen befehlen. Und wenn es eine solche künstliche Intelligenz gäbe, müsste sie mit der menschlichen Wirtschaft konkurrieren und damit um Ressourcen mit uns konkurrieren. Letztendlich können wir sie (Siri nicht sagen) immer ausstecken. "

Unser Gehirn, unser Körper

Ein weiteres wichtiges Argument für die Überlegenheit der menschlichen Erkenntnis gegenüber der Technologie ist die Erforschung des menschlichen Gehirns.

Wenn Sie zu YouTube gehen und dem verstorbenen renommierten Ingenieur Marvin Minsky zuhören, einem frühen ML-Pionier und Vorbild für Ray Kurzweil und andere KI-Gurus von heute, können Sie ihn über das menschliche Gehirn sprechen hören. Minsky betont, dass echte menschliche Intelligenz kein leistungsfähiger Supercomputer ist, sondern Hunderte verschiedener Computer, die auf komplexe Weise miteinander verbunden sind. KI, erklärt er, kann einige dieser Maschinen replizieren, ist aber bei weitem nicht in der Lage, alle zu replizieren.

Für viele Technologieexperten wird die KI niemals in der Lage sein, die Komplexität des menschlichen Gehirns wirklich nachzuahmen, und wird daher immer von Natur aus weniger leistungsfähig sein.

"AIs sind in der Regel nicht zum Überleben gedacht, sondern zum Lösen sehr spezifischer und personenbezogener Probleme wie Schachspielen", schrieb Luc Claustres, Ph.D. Ende letzten Jahres. "Als solche können sie sich nicht einmal an geringfügige Änderungen in ihrer Umgebung anpassen, ohne sie neu zu programmieren, während der Mensch mit Ungenauigkeiten fertig wird oder Regeln leicht selbst ändert."

KI und Intuition

Es gibt auch ein Folgerungsargument, das sich auf das so genannte "Crossing Guard-Problem" stützt - es geht um die Grenzen dessen, was künstliche Intelligenz leisten kann. AI und ML sind hervorragend darin, Erkenntnisse aus einem vielfältigen Datenpool zu gewinnen - aber sie sind nicht gut in der Intuition, wofür Menschen bekannt sind. Mit anderen Worten, wenn Sie einen Computer als Wachposten anheuern, verfügen Sie möglicherweise über einige Funktionen - aber wahrscheinlich über einige gefährliche Lücken -, mit denen Sie Ihren Kindern nicht vertrauen würden! (Weitere Informationen zum Potenzial von KI für menschliches Denken finden Sie unter Kann Kreativität in KI umgesetzt werden?)

Daher können Computerprogramme unsere menschlichen Macken und Eigenheiten in Bezug auf die Art und Weise, wie wir kommunizieren und wie wir leben, nicht verstehen. Dies ist also eine weitere wichtige Einschränkung.

Um mehr darüber zu erfahren, warum Bedenken in Bezug auf Superintelligenz möglicherweise übertrieben werden, geht ein Artikel von Kevin Kelly aus dem vergangenen Jahr auf einige Annahmen ein, die zutreffen müssten, damit AI auf praktische Weise wirklich die Kontrolle übernehmen kann. Dazu gehören die folgenden:

  • Diese künstliche Intelligenz überfordert bereits die menschliche Erkenntnis
  • Diese Intelligenz kann unbegrenzt erweitert werden
  • Diese Superintelligenz kann die meisten Probleme lösen, mit denen Menschen konfrontiert sind

Wenn Sie den Artikel durchlesen, sehen Sie, wie all diese Annahmen explodierten und behandelt wurden, um erneut zu zeigen, warum die menschliche Kognition so besonders ist.

Es ist nicht so, dass Technologie nicht leistungsfähig wird - es wird. Es ist eine Frage der verschiedenen Dimensionen, die gemeistert werden müssen, um KI stärker als Menschen zu machen. Der Mensch hat sich im Laufe von Millionen und Abermillionen von Jahren weiterentwickelt - künstliche Intelligenz gibt es seit etwa 20 Jahren, und obwohl sie enorme Fortschritte gemacht hat, hat der Mensch immer noch die Oberhand und wird es wahrscheinlich für immer sein.

Wenn Sie einige dieser Links durchlesen und sich ansehen, was die Leute gesagt haben, sollten wir uns wirklich mehr Sorgen machen. Es gibt eine Fülle von Möglichkeiten für den Menschen, Technologie zu missbrauchen - tatsächlich würden viele von uns sagen, dass wir bereits viele der Technologien, die wir haben, missbrauchen. Das könnte also ein wirklich besserer Ort sein, um seine Ängste und Handlungen in Bezug auf die Schaffung einer ethischen KI zum Ausdruck zu bringen.