6 (beängstigende) Dinge, bei denen AI besser wird

Autor: Laura McKinney
Erstelldatum: 3 April 2021
Aktualisierungsdatum: 24 Juni 2024
Anonim
6 (beängstigende) Dinge, bei denen AI besser wird - Technologie
6 (beängstigende) Dinge, bei denen AI besser wird - Technologie

Inhalt


Quelle: Tampatra1 / Dreamstime.com

Wegbringen:

AI tut viel Gutes - aber einige seiner Anwendungen sind ... beunruhigend.

Wir haben im letzten Jahr viel über künstliche Intelligenz gehört - einige gute und andere schlechte. Viele Menschen wissen nur vage, wie die künstliche Intelligenz voranschreitet und welche Methoden und Techniken dahinter stehen.

Einige von uns haben jedoch ein drohendes Gefühl des Untergangs. Lassen Sie uns das ein wenig auflösen - hier sind einige Bereiche des „Fortschritts“, in denen die KI sehr schnell voranschreitet und uns Menschen ein wenig beunruhigend erscheinen kann!

Software, die auf maschinellem Lernen basiert, kann Geschäftsprozesse zum Besseren verändern. Klick hier um mehr zu erfahren.

Ihr intelligentes Haus

Was ist mit dem Haus, das nicht nur sagen kann, was Sie sagen, sondern auch Ihre Emotionen erkennen kann?


Neue Spracherkennungstechnologien gehen über das Phonem hinaus und konzentrieren sich auf Flexion und Nuance. In mancher Hinsicht werden sie so raffiniert, dass sie sehr subtile Hinweise nehmen und dementsprechend reagieren können.

„Das Gerät kann nicht nur, was ein Benutzer sagt, sondern es
wird es auch in den Ausdruck zerlegen und wahrnehmen
Variationen “, sagt Ash Turner, CEO von BankMyCell, einem Händler für Elektronikprodukte. "In den kommenden Jahren wird sich diese Spracherkennung in hohem Maße in elektrische Objekte um uns herum und in unsere Smart Homes integrieren, Licht oder Fernseher einschalten, elektrische Jalousien schließen und so weiter."

Das ist alles schön und gut, es sei denn, der Algorithmus geht in einer Version eines Horrorfilms aus dem 21. Jahrhundert plötzlich durcheinander.

Sie gehen auf Zehenspitzen herum und achten darauf, Ihr Haus nicht aufzuwecken!

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören


Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Der Roboter-Mitarbeiter

Es gibt auch den tragischen Fall von Wanda Holbrook, die von einem Roboter getötet wurde, der ihren Schädel zerquetschte, während sie einen nahe gelegenen Bereich des Arbeitsplatzes inspizierte.

Experten kamen zu dem Schluss, dass der Roboter nicht in den Sektor von Holbrook hätte einsteigen dürfen, aber das tat er, und jetzt verfolgt die Angst vor Robotern viele Arbeiter, die an der Automatisierung von Unternehmen teilnehmen.

Obwohl die Idee von außer Kontrolle geratenen Robotern skurril klingen kann, gibt es wirklich keinen Grund zum Scherzen. Es müssen strenge Standards vorhanden sein, um sicherzustellen, dass Robotersysteme so funktionieren, wie sie sollen, und dass Menschen nicht geschädigt werden. Nehmen Sie selbstfahrende Autos - Probleme mit autonomen Fahrzeugen können schwerwiegende und tragische Folgen haben.

Der Roboter als Maschine mag einige Menschen erschrecken, aber wenn Sie darüber nachdenken, liegt die Verantwortung für tragische Fehler wie diesen bei der KI. Wenn wir Roboter auf komplexere Weise programmieren, können wir sie mit herkömmlichen Mitteln möglicherweise weniger gut steuern. Das klingt rückwärts - aber wenn ein Roboter (oder ein selbstfahrendes Auto) etwas tut, was er nicht tun soll, wurde er wahrscheinlich nicht explizit von einem Programmierer angewiesen. Mit anderen Worten, es ist die Freiheit, die der Codebasis und der Funktionalität des Roboters eingeräumt wird, die physikalisch gefährlich ist.

Isaac Asimovs altes Robotermanifest "Do no harm" durchdringt nicht automatisch die Unternehmensanwendungen von Robotern, die ernsthafte Haftungsbedenken aufwerfen. Das heißt, wir müssen wirklich vorsichtig sein, wie wir ro- botische Gewalt anwenden. (Weitere Informationen zu Robotern finden Sie unter 5 Definieren der Eigenschaften von Robotern.)

Maschinen im Krieg

Eine Liste der beängstigenden KI wäre nicht vollständig, wenn nicht diskutiert würde, wie künstliche Intelligenz militärische Systeme weiterentwickelt.

"Ich denke, dass die Fähigkeit der künstlichen Intelligenz in Bezug auf Kriegsführung ein Feld ist, das wirklich beängstigend ist", sagt Stephen Hart von Cardswitcher.

In wenigen Jahren haben wir die Entwicklung, das Wachstum und die Weiterentwicklung relativ autonomer Technologietypen erlebt, die darauf ausgelegt sind, Menschenleben zu fordern. Es ist weithin anerkannt, dass völlig autonome Arten von Drohnen, Raketen und Robotersoldaten nur wenige Jahre von uns entfernt sind. … Ich denke, es ist eine sehr gefährliche Entwicklung, Maschinen die Möglichkeit zu geben, zu entscheiden, wen sie töten. Nach welchen Kriterien wird ein Programmierer auswählen, wer ein "Feind" und wer ein "Freund" ist, wenn er künstliche Technologien für die Kriegsführung entwickelt?

Hart erwähnt auch einen Vorfall aus dem Jahr 1983, der durch den folgenden Film „War Games“ bekannt wurde, in dem computergestützte Systeme eine nukleare Bedrohung auslösten und es Menschen erforderte, den Konflikt zu lösen und die Maschinen zum Stillstand zu bringen.

Einige Experten äußerten Besorgnis über von KI geführte Waffen, die globale Konflikte auslösen, und verwiesen auf den berüchtigten Vorfall von 1983, als eine Fehlfunktion in einem sowjetischen Computersystem versehentlich die Warnung auslöste, dass US-Raketen auf die UdSSR zusteuern, und es war nur durch menschliches Eingreifen möglich, dass a Atomkrieg wurde vermieden “, sagt Hart.

All dies bereitet den Menschen, die darüber nachdenken, wie künstliche Intelligenz in der Verteidigungsindustrie eingesetzt wird, enorme Sorgen. Es ist schon schlimm genug, dass wir Türme voller Atomwaffen haben - wir wollen keine IT als arme Vermittler.

AI Behandlungsfehler?

Medizinisches Fehlverhalten ist bereits ein Bereich, der mit problematischer Komplexität behaftet ist.

Nun könnte die KI einige dieser Herausforderungen verschärfen.

David Haas ist ein Gesundheitsforscher bei der Mesothelioma Cancer Alliance.

"So futuristisch es auch scheinen mag, die KI beginnt, Ärzten bei der Erstellung medizinischer Diagnosen zu helfen", sagt Haas. „Durch die schnelle Datenerfassung und -verarbeitung können mit KI ausgestattete Supercomputer Ärzten Vorschläge machen, an die ein Mensch möglicherweise nicht gedacht hat. Dies vereinfacht die Möglichkeit einer schnelleren Diagnose, die für einige Patienten lebensbedrohlich sein kann. Diese Geräte stecken jedoch noch in den Kinderschuhen und weisen nachweislich häufige Fehler auf, die das Wohlbefinden eines Patienten ernsthaft beeinträchtigen können. “(Weitere Informationen zu AI in der Medizin finden Sie unter Die 5 erstaunlichsten AI-Fortschritte im Gesundheitswesen.)

Wie gewohnt

In mancher Hinsicht sind einige der gruseligsten Fortschritte diejenigen, die am leisesten und ohne große Warnsignale ablaufen.

Wir fangen bereits an, die Nutzung von Smartphones neu zu bewerten. Einige Experten haben die Nutzung von Smartphones mit den Ergebnissen der psychischen Gesundheit in Verbindung gebracht, aber jetzt explodiert die Technologie um uns herum.

"AI wird sich auch in Zukunft weiter in AR integrieren, um die AR-Erlebnisse so zu personalisieren, wie die Menschen die Welt um sich herum erleben", sagt Alen Paul Silverstein, CEO von Imagination Park, in einem Rückblick auf das, was in AI bereits passiert. „AR wird in den nächsten 5 Jahren von mobilen Geräten auf Wearables (d. H. Headsets) umsteigen. Wenn die Menschen durch Einzelhandels- und Stadtumgebungen gehen, werden personalisierte Anzeigen und Werbeaktionen direkt auf ihre Objektive geliefert, die über die Bluetooth-Verbindung für mobile Geräte mit Strom versorgt werden. Das bringt uns zu der Umgebung, die in dem Film "Minority Report" mit Tom Cruise zu sehen ist. "

Silverstein ist auch nicht der einzige, der den Film „Minority Report“ als Warnung verwendet - andere machen sich Sorgen über den Einsatz von KI bei der Strafverfolgung, wie in diesem Film dargestellt. Der futuristische Film enthält zahlreiche „Signale“, die uns zeigen, wie wir bereits damit beginnen, die empfindungsfähige KI freizuschalten, mit der irgendwann gerechnet werden muss.

Fürchte, was du siehst

Das hier ist etwas weniger bekannt - die Fähigkeit neuer KI-Systeme, uns störende Bilder zu zeigen.

"Die automatische Bilderkennung - der Computer liefert eine Beschreibung der Inhalte eines digitalen Bildes - ist einer der Bereiche, in denen die KI in den letzten Jahren dramatische Fortschritte gemacht hat", sagt Kentaro Toyama. Toyama ist W. K. Kellogg Professor für Community Information an der University of Michigan School of Information und Autor von „Geek Heresy: Rettung des sozialen Wandels vor dem Technologiekult“.

Toyama beschreibt eine Technologie namens Google Deep Dream und stellt fest, wie die neue KI erschreckend realistische dunkle Bilder erzeugen kann, die beim Menschen tiefe Leiden hervorrufen können.

"In Deep Dream wenden die Entwickler die Bilderkennung ein wenig umgekehrt an", erklärt er. „Sie beginnen mit einem unschuldigen Grundbild und einem KI-Modell, das weiß, wie man beispielsweise Hunde in einem Bild erkennt. Anstatt die KI zu verwenden, um zu erkennen, was im Bild enthalten ist, verwenden sie sie, um das Bild so zu ändern, dass es hundeartiger wird. Dies führt zu Bildern, die spektakulär denen menschlicher Träume ähneln - einige der resultierenden Bilder sind atemberaubend schön; andere sind zutiefst beängstigend. "

Schlaf gut!