Verwenden Hacker KI für böswillige Absichten?

Autor: Roger Morrison
Erstelldatum: 1 September 2021
Aktualisierungsdatum: 21 Juni 2024
Anonim
Verwenden Hacker KI für böswillige Absichten? - Technologie
Verwenden Hacker KI für böswillige Absichten? - Technologie

Inhalt


Quelle: Sdecoret / Dreamstime.com

Wegbringen:

KI hat das Potenzial, Daten wie nie zuvor zu schützen, aber auch das Potenzial, Daten wie nie zuvor zu stehlen. Sicherheitsprofis und Hacker versuchen, diese Technologie optimal zu nutzen.

Cybersecurity-Experten betrachten künstliche Intelligenz (KI) mit Begeisterung und Besorgnis. Einerseits hat es das Potenzial, völlig neue Verteidigungsebenen für kritische Daten und Infrastrukturen hinzuzufügen, andererseits kann es auch als mächtige Waffe eingesetzt werden, um diese Verteidigung zu vereiteln, ohne Spuren zu hinterlassen.

Wie jede Technologie hat KI sowohl Stärken, die genutzt werden müssen, als auch Schwächen, die ausgenutzt werden können. Die Herausforderung für die heutigen Sicherheitsexperten besteht darin, den Bösen immer einen Schritt voraus zu sein. Dies sollte mit einem klaren Verständnis dessen beginnen, wie KI als anstößige Datenwaffe eingesetzt werden kann.


KI hacken

Zum einen, so Nicole Kobie von Wired, sollten wir uns darüber im Klaren sein, dass wie in jeder Datenumgebung auch die KI selbst gehackt werden kann. Im Zentrum jedes intelligenten Prozesses steht ein Algorithmus, der auf die empfangenen Daten reagiert. Die Forscher zeigen bereits, wie neuronale Netze dazu verleitet werden können, ein Schildkrötenbild als Gewehrbild zu betrachten, und wie ein einfacher Aufkleber auf einem Stoppschild dazu führen kann, dass ein autonomes Auto direkt an eine Kreuzung fährt. Diese Art der Manipulation ist nicht nur nach der Bereitstellung von KI möglich, sondern auch während des Trainings. Dadurch können Hacker möglicherweise alle Arten von Chaos anrichten, ohne die Infrastruktur des Client-Unternehmens berühren zu müssen.

Während es sicherlich keinen Mangel an Missständen gibt, deren einziges Ziel darin besteht, Menschen zu verletzen und Terror zu verursachen, ist der eigentliche Gewinn des Hacking-Spiels die Passworterkennung und alle damit verbundenen Diebstahl- / Erpressungsmöglichkeiten. Letztes Jahr hat das Stevens Institute of Technology ein Programm erstellt, um die Kraft zu demonstrieren, die die KI in diesen Prozess bringt. Die Forscher versahen eine Reihe bekannter Programme zum Knacken von Passwörtern mit intelligenten Algorithmen, die darauf trainiert waren, wahrscheinliche Buchstaben-Zahlen-Sonderzeichen-Kombinationen zu erraten. Innerhalb von Minuten hatten sie mehr als 10 Millionen LinkedIn-Passwörter erhalten. Wenn mehr Passwörter entdeckt werden, können diese natürlich zum Trainieren dieser Lernalgorithmen verwendet werden, sodass sie mit der Zeit auch dann effektiver werden, wenn gemeinsame Schutzmaßnahmen wie das routinemäßige Ändern eines Passworts angewendet werden. (Weitere Informationen zu Kennwörtern finden Sie unter Simply Secure: Ändern der Kennwortanforderungen für Benutzer.)


Ist es möglich, dass diese Tools bereits vom kriminellen Untergrund benutzt werden? Wenn Cloud-basierte KI-Dienste zur Verfügung stehen und das dunkle Web als Clearingstelle für alle Arten von Kryptosoftware fungiert, wäre es überraschend, wenn dies nicht der Fall wäre. Darktrace, ein Unternehmen für Bedrohungsanalysen, gibt an, dass es erste Anzeichen für beliebte Malware-Programme wie TrickBot gibt, die ein konsequentes Bewusstsein für den Diebstahl von Daten und die Sperrung von Systemen zeigen. Sie scheinen zu wissen, wonach sie suchen und wie sie sie finden müssen, indem sie die Zielinfrastruktur untersuchen und dann selbst entscheiden, wie sie der Entdeckung am besten entgehen können. Dies bedeutet, dass das Programm nicht länger über Befehls- und Kontrollserver oder andere Mittel den Kontakt zum Hacker aufrechterhalten muss. Dies ist normalerweise eines der effektivsten Mittel zur Verfolgung des Täters.

In der Zwischenzeit werden herkömmliche Phishing-Attacken immer echter, zum großen Teil, weil KI-Tools den Anschein erwecken können, als stamme sie aus einer vertrauenswürdigen Quelle. Beispielsweise ist die Verarbeitung natürlicher Sprache so konzipiert, dass sie die menschliche Sprache nachahmt. In Kombination mit leicht verfügbaren Daten wie Namen und Anschriften von Führungskräften kann ein so realistisches Schreiben erstellt werden, dass es selbst enge Mitarbeiter täuschen kann. Der Durchschnittsverbraucher ist gleichermaßen anfällig, da AI in der Lage ist, alle Arten von Daten abzuspeichern, um Betrüger mit personalisierten Informationen zu infundieren.

Zurück kämpfen

Wie oben erwähnt, ist AI jedoch eine Einbahnstraße. Es kann Hackern ermöglichen, sich in Kreisen um herkömmliche Sicherheitssysteme zu bewegen, verbessert jedoch auch die Effektivität aktueller Sicherheitssysteme. Laut dem Insurance Journal konnte Microsoft kürzlich einen versuchten Hack seiner Azure-Cloud verhindern, als sein AI-infundiertes Sicherheitsregime einen falschen Eingriff von einem entfernten Standort aus entdeckte. Der Versuch wäre unter früheren regelbasierten Protokollen unbemerkt geblieben, aber die Fähigkeit von AI, sich auf neue Bedrohungen einzustellen und sich darauf einzustellen, dürfte die Fähigkeit des Unternehmens, sich selbst zu schützen, dramatisch verbessern, selbst wenn Daten und Infrastrukturen an der traditionellen Firewall vorbei in die Cloud und das Internet von dringen Dinge. Alle führenden Hyperscale-Cloud-Anbieter implementieren AI aggressiv auf ihren Sicherheits-Füßen. Je früher es in Betrieb genommen wird, desto mehr wird es gelernt haben, wenn es auf AI-fähige Hacks stößt. (Weitere Informationen finden Sie unter Auswirkungen von AI-Fortschritten auf Sicherheit, Cybersicherheit und Hacking.)

Auf diese Weise ist KI nur die letzte Eskalation in dem Sicherheitskrieg, der seit Jahrzehnten andauert. Wenn neue Bedrohungen auftauchen, werden neue Abwehrmechanismen errichtet, die beide Seiten mit denselben zugrunde liegenden Technologien anspornen.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Wenn überhaupt, wird AI diesen Prozess wahrscheinlich beschleunigen und gleichzeitig viele der praktischen Aktivitäten von menschlichen Bedienern entfernen. Wird dies für die heutigen Cyber-Krieger eine gute oder eine schlechte Sache sein? Vermutlich eine Mischung aus beidem, da sowohl die weißen als auch die schwarzen Hüte den Mut aufgeben, ihre Angriffe und Abwehrmechanismen zu kodieren, und sich auf die strategischeren Aspekte der modernen Cyberkriegsführung konzentrieren.