Cloud-Komplikation: Vereinfachung der Cloud mit Ben Nye, CEO von Turbonomic

Autor: Roger Morrison
Erstelldatum: 25 September 2021
Aktualisierungsdatum: 1 Juli 2024
Anonim
Cloud-Komplikation: Vereinfachung der Cloud mit Ben Nye, CEO von Turbonomic - Technologie
Cloud-Komplikation: Vereinfachung der Cloud mit Ben Nye, CEO von Turbonomic - Technologie

Inhalt


Quelle: Alexander Cherevko / Dreamstime

Wegbringen:

Wir diskutieren mit Ben Nye, CEO von Turbonomics, über die Zukunft der Cloud.

Wenn es eine Sache gibt, die wir in den letzten Jahren über das Wachstum von Cloud-Bereitstellungen gelernt haben, können die Dinge sehr schnell sehr kompliziert werden. Es gibt öffentliche, private und hybride Clouds sowie die verschwommenen Definitionen zwischen den einzelnen Clouds. Es gibt eine ständig wachsende Liste von Cloud-Plattformen und Kostenstrukturen. Compliance wird nur noch komplizierter ... Wenn dies so klingt, als ob eine Person jemals den Überblick behalten könnte, haben Sie wahrscheinlich Recht. Immerhin sind wir nur Menschen.

Als wir letztes Jahr mit Ben Nye, CEO von Turbonomic, sprachen, beschäftigten wir uns eingehend mit dem Thema Autonomic Computing und dessen Verwendung, um das Problem komplexer werdender datengesteuerter Umgebungen zu lösen, die die Fähigkeit einer Person zur effizienten Verwaltung übersteigen. Es ist ein neues Paradigma für Systemadministratoren, die sich schon lange an das Break-Fix-Modell des Anwendungsmanagements halten. Die gesamte Kontrolle auf Software zu übertragen, ist ein neuer Ansatz. Aus praktischer Sicht wird das Zuweisen und Bereitstellen von Cloud-Ressourcen basierend auf den Anforderungen der Workloads in Echtzeit jedoch zu einer starken Kraft in einem überfüllten Cloud-Markt, der immer komplexeren Rechenzentren gerecht wird.


Techopedias Cory Janssen setzte sich erneut mit Ben zusammen, um zu besprechen, wie sich die Cloud-Landschaft im letzten Jahr verändert hat, wohin sie führen könnte und wie Unternehmen die Art und Weise verändern, wie sie Cloud-Ressourcen verwalten.

Cory: Es ist etwas mehr als ein Jahr her, seit wir das letzte Mal darüber gesprochen haben. Was waren die größten Veränderungen in der Wolkenlandschaft im letzten Jahr?

Ben: Die Dynamik dieses Marktes hält unvermindert an. Das im letzten Interview angesprochene Änderungstempo, bei dem herkömmliche Gateway-Hardwareanbieter der Software im Rechenzentrum und in der Cloud weichen, hat sich beschleunigt. Die Rivalität zwischen Cloud-Anbietern (hauptsächlich AWS und Azure) nimmt zu und es entstehen neue Allianzen (Google und Cisco, VMware und AWS).

Was interessiert CIOs vor diesem Hintergrund? Viele implementieren eine Cloud-First-Strategie, bei der sie herausfinden müssen, welche Workloads in die öffentliche Cloud gelangen und welche privat bleiben sollen.


Eine Hybrid- und Multi-Cloud-Zukunft rast mit viel schnellerer Geschwindigkeit auf uns zu als erwartet. Dieser Wandel zwingt zu einem neuen Ansatz für das Management und die Optimierung der IT.

Cory: Im Unternehmensbereich scheint sich das gesamte Konzept der Cloud in Richtung Hybrid zu verschieben. Ist die alte Vorstellung von Wolke tot? Ist Hybrid die neue Cloud?

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Ben: Ohne Zweifel wird es eine hybride Cloud-Zukunft sein. Die Einführung der Hybrid-Cloud als De-facto-Lösung hat einen unglaublichen Wandel bewirkt. Die öffentliche Cloud wächst unglaublich gut, aber das bedeutet nicht, dass die private Cloud schrumpft. Wenn Sie sich verschiedene Quellen ansehen, die diesen Trend prognostizieren (wie den Cisco Cloud Index und Morgan Stanley CIO Survey), sehen Sie in der privaten Cloud eine Wachstumsrate von 3 bis 5 Prozent und in der privaten Cloud eine Wachstumsrate von 60 Prozent öffentliche Cloud.

Darüber hinaus werden komplexe Unternehmensanwendungen in der öffentlichen Cloud häufiger eingesetzt, und zwar nicht nur native oder neue Apps, sondern auch produktionsorientiertere Apps in den entsprechenden Umgebungen der öffentlichen Cloud.

Diese Realität zwingt dazu, genau zu überlegen, wie diese Änderungen möglichst kosteneffizient, performant und konform gehandhabt werden können.

Cory: Im Moment geht es um maschinelles Lernen. Ihr habt vor ein paar Jahren an autonomen Funktionen in eurer Software gearbeitet. Glauben Sie, Sie waren dort in Bezug auf die Frage, wie Sie das Cloud-Management außer Kontrolle bringen können, ganz vorne mit dabei?

Ben: Zum Glück ja. Viele Leute dachten, Big Data sei der Weg, um die Leistung zu managen, und in Ermangelung dessen verwendeten sie ältere Bereitstellungstechniken und manuelle Interventionstechniken - im Grunde reagierten die Leute auf maschinengenerierte Warnungen. Wir glauben, dass die Fähigkeit fehlte, die Anforderungen zu verstehen, damit die Anwendungs-Workloads basierend auf fortschrittlichen Echtzeitanalysen selbstständig intelligente Entscheidungen treffen können, wo sie ausgeführt werden sollen, wann sie gestartet oder gestoppt werden sollen, wann sie verkleinert oder verkleinert werden sollen. Die Antwort war ein selbstverwaltendes System, das weitaus effizienter ist als Überprovisionierung und die Verfolgung von maschinengenerierten Überwachungsalarmen. Es ist außerdem effizienter und zeitnaher als eine herkömmliche Big-Data-Übung, bei der die Benutzer enorme Datenmengen aggregieren, ohne genau zu verstehen, was sie erfassen möchten. Dann müssen sie diese Daten in ein gemeinsames Repository oder Data Warehouse verschieben. Sie müssen dann diese Daten strukturieren, diese Daten korrelieren, alles mit dem Ziel, eine Schlussfolgerung zu finden.

Wir waren keine großen Anhänger von Big Data. Unsere Intelligenz ist eine andere Art von KI für das Leistungsmanagement. Bei Big Data ist es teuer, all diese Daten zu erfassen, und es ist sehr einfach, genau die Systeme zu verstopfen, die Sie durch das Verschieben dieser Daten verwalten möchten. Wenn Sie es bewegen, strukturieren, korrelieren und eine Schlussfolgerung finden, sind Sie nicht mehr in Echtzeit. Schließlich, diese Schlussfolgerung, wenn Sie es ableiten, müssen Sie es wieder an die Menschen zurückgeben. Das macht maschinelles Lernen so wertvoll, um Einblicke in große Datenmengen zu erhalten. Es ist nicht ganz so wertvoll für die Bereitstellung von Leistungsmanagement in IT-Systemen.

Cory: Laut der CIO-Studie von Morgan Stanley wird die Hälfte aller Workloads bis 2020 in der Public Cloud ausgeführt. Welchen Risiken sind Unternehmen bei dieser Verlagerung ausgesetzt?

Ben: Praktisch alle Workloads in der lokalen Welt sind überpräpariert und nicht ausreichend ausgelastet, was auf gut gemeinte Schätzungen der IT zurückzuführen ist. Dies ist die Grundlage, auf der Unternehmen arbeiten, wenn sie einen Wechsel und eine Migration in die Cloud in Betracht ziehen. Dies gilt seit mehr als zwei Jahrzehnten. In der On-Premise-Welt handelt es sich vorwiegend um ein Umfeld mit festen Kosten, in dem die Kapazitäten im Besitz sind - daher fallen nur geringe Gebühren an.

Wenn Unternehmen Hybrid Clouds einsetzen, verlagern sie ihre überprovisionierten Workloads in die Cloud - eine Welt mit variablen Kosten. Wenn Sie überprovisioniert sind, zahlen Sie das sekunden- oder minutengenau, abhängig von Ihrem öffentlichen Cloud-Anbieter. Konformität wird auch in diesem neuen Modell zu einem großen Risiko.

Cory: Auf dem Papier macht es theoretisch Sinn, auf variable Kosten umzusteigen, aber wenn man es so ausdrückt, ist es so einfach. Ich meine, Sie bitten die Architekten und die IT-Seite, auch Finanzleute zu sein.

Ben: Genau. Schätzungen zufolge sind die Rechnungen für öffentliche Clouds mehr als doppelt so hoch wie erwartet. Warum ist das so? Denn wenn Sie eine Workload in die Public Cloud migrieren, nehmen Sie sie basierend auf einer Zuordnungsvorlage. Sie verkleinern es nicht und verkleinern es nicht. Die Wahrscheinlichkeit einer Überversorgung ist hoch und daher sind Ihre Ausgaben hoch. Es ist von entscheidender Bedeutung, den tatsächlichen Verbrauch einer Arbeitslast zu ermitteln und ihn dann entsprechend zu dimensionieren (nach oben oder unten): Dies ist einer der Vorteile von Turbonomic.

Cory: Normalerweise habe ich Turbonomic eher als rechenintensiv eingestuft, aber Sie haben in letzter Zeit auch viele Dinge auf der Speicherseite erledigt. Kannst du ein bisschen darüber reden?

Ben: Eine Ihrer früheren Fragen betraf die Veränderungen in der Cloud-Landschaft. Beispielsweise bietet Amazon jetzt Preise für die Berechnung und Speicherung pro Sekunde an. Überlegen Sie sich, wie dynamisch der Markt ist, der buchstäblich pro Sekunde angeboten werden kann. Ziemlich wild, wenn man bedenkt, dass es etwas weniger als ein Jahr her ist, dass Google die Minutenpreise herausgebracht hat, weil Amazon pro Stunde war.

Wir können jetzt in Amazon Daten verarbeiten, speichern, vernetzen und speichern, indem wir ihre Preisflexibilität buchstäblich auf die Sekunde genau nutzen.

Cory: Ich bin mir sicher, dass all diese großen relationalen Datenbanken eine der teuersten Instanzen von AWS sind, oder? Sie kommen also auf den Punkt.

Ben: Es gibt mehrere wichtige Themen, auf die Sie dort stoßen. Wenn Sie sich zum Beispiel Amazon ansehen, haben sie Ihre Frage zur Datenbank tatsächlich auf eine andere Ebene gehoben. Database as a Service ist eines der am schnellsten wachsenden Platform-as-a-Service-Angebote. Sowohl AWS als auch Microsoft haben eine große Anzahl von Platform-as-a-Service-Angeboten entwickelt. Einige beschäftigen sich mit Big Data Machine Learning. Unabhängig davon, ob Sie ihre Datenbank oder Ihre Datenbank verwenden, sind die Speicherkosten sehr hoch und die Gesamtkosten können sehr hoch sein, und die Variabilität - oder die Möglichkeit, diese zu verbessern - ist erheblich. Das ist, was wir tun: Kunden können ihren ROI nahezu verdoppeln, wenn sie unsere neuen Turbonomic-Speicherfunktionen für die öffentliche Cloud sowie die zuvor angebotenen Rechen-, Speicher- und Netzwerkfunktionen ausführen.

Wenn Sie sich Microsoft ansehen, haben sie bei ihrem letzten Ignite-Ereignis eine Reihe wichtiger Ankündigungen gemacht. Sie verfügen jetzt über Verfügbarkeitszonen und reservierte Instanzangebote wie AWS. Das ist wichtig, weil es zeigt, wonach Kunden fragen. Es zeigt aber auch, dass es wie bei diesen Dingen Komplexität gibt und Komplexität die Menschen schnell überwältigen kann.

Cory: Können Sie ein wenig darüber sprechen, wie Turbonomic die verschiedenen Cloud-Plattformen zusammenbringen konnte? In Bezug auf die verschiedenen Funktionen von AWS und Azure haben wir einiges herumgetanzt. Es hört sich fast so an, als ob es in den letzten Jahren eine Situation gab, in der Sie die eine oder andere Wahl hatten, aber immer mehr Unternehmen können diese jetzt zusammen heiraten.

Ben: In der Vergangenheit wurden bei der Einführung einer neuen Plattform neue Tools eingeführt, um Daten zu aggregieren und einer Person zur Verwaltung oder Behebung zu übergeben. Der begrenzende Faktor ist das menschliche Können. Diese Komplexität erzwingt eine neue Art der IT-Verwaltung. Sie hören heutzutage viel mehr über KI, sich selbst steuernde Datenbanken, Rechenzentren usw. Wir glauben, dass die Lösung für die Verwaltung von Komplexität in einer hybriden Umgebung darin besteht, eine sich selbst verwaltende Umgebung über ein Steuerungssystem zu erstellen, das beides verbinden kann bestehende Lücken. Wir geben Menschen eine Art bionische Fähigkeit, die Komplexität ihrer Umgebung mit Software zu nutzen, die das Rätselraten und die Einschränkungen beseitigt, die zuvor bestanden haben, um sicherzustellen, dass Workloads leistungsfähig, konform und kostengünstig ausgeführt werden, unabhängig davon, ob sie sich in einer privaten oder öffentlichen Cloud befinden .

Cory: Sie können auch Google einsetzen, wenn es in den nächsten Jahren sein Angebot erweitert. Auf jeder Plattform dreht sich alles um die Auswahl der besten Services.

Ben: Ja. Wir freuen uns, Google-Umgebungen in einer zukünftigen Softwareversion zu unterstützen. Es gibt eine Reihe von Entscheidungen darüber, wo und wie und wann eine Arbeitslast platziert werden soll und wann eine Arbeitslast gestartet und gestoppt werden soll. Denken Sie daran: Eine Workload kann eine VM oder ein Container sein, es kann sich auch um eine VDI handeln. Die Flexibilität, mit der diese Entscheidungen für eine größere Anzahl von Alternativen oder Optionen getroffen werden, ist für Kunden, die die niedrigsten Kosten, die beste Leistung und Leistung erzielen möchten, von enormem Wert versicherte Einhaltung. In dieser Größenordnung kann Software dies weitaus effizienter tun, als darauf angewiesen zu sein, dass Benutzer auf maschinengenerierte Warnungen reagieren, wenn die Anwendungen einen Schwellenwert überschritten oder überschritten haben.

Bedenken Sie auch, dass ständig neue Vorschriften eingeführt werden. Es gibt globale Datenschutzbestimmungen, die sich darauf auswirken, über welche Daten Sie verfügen und wo sich diese Daten befinden, und die Datenhoheit erfordern. Dann gibt es eine Affinität und eine Anti-Affinität, um die sich Daten mit anderen Datensätzen befassen können. Hinzu kommen Anforderungen an die Geschäftskontinuität und Hochverfügbarkeit! Wenn Sie in der öffentlichen Cloud fünf Neunen möchten, müssen Sie sich in mindestens vier Verfügbarkeitszonen befinden. Sie müssen über Disaster Recovery und mehrere Geschäftsregeln nachdenken. Die Realität sieht folgendermaßen aus: Wenn Sie diese Geschäftsregeln nicht überprüfen, wissen Sie nicht, dass Sie bei jeder Größe, bei jedem Starten, Verschieben, Platzieren oder Klonen eines Workloads die Richtlinien ständig einhalten. Sie sind entweder konform - oder nicht. Es ist ein binäres Problem.

Cory: Es ist fast so kompliziert geworden, dass die Geschäftsregel es einem Menschen fast unmöglich macht, damit umzugehen.

Ben: Genau, und das ist das Problem, insbesondere wenn wir eine Skalierung verwenden, die zu 80 bis 90 Prozent im Unternehmen virtualisiert ist. Wir arbeiten mit einer Skala, die über das manuelle Eingreifen hinaus ausgereift sein muss, indem auf Maschinenwarnungen reagiert wird, wenn die Anwendungen unterbrochen werden dürfen. Übrigens, ich muss in der Lage sein, diese neuen Fähigkeiten zu erlernen, um dasselbe in der öffentlichen Cloud zu besseren Konditionen zu tun. Es ist einfach viel zu viel.

Cory: Weißt du was? Wenn Sie mit mir darüber sprechen, ist es für mich erstaunlich, dass das zugrunde liegende Problem nicht darin besteht, ob Sie über Migration oder über Compliance-Probleme sprechen. Da gibt es so viele Überschneidungen, und selbst wenn Sie die Compliance durchlaufen, überschneiden sich viele dieser Probleme wirklich. Das Kernproblem ist, dass es in den nächsten Jahren nur zu mehr Komplexität kommen wird. Wenn Sie gerade nicht auf dem richtigen Weg sind, sind Sie tot im Wasser. Wenn Sie jetzt nicht mit Dingen umgehen können, wie werden Sie dann im Jahr 2020 damit umgehen?

Ben: Stimme voll und ganz zu. Übrigens, nur um es klar zu machen, wird es noch komplexer, denn jetzt müssen wir uns nicht nur überlegen, wo ein Workload ausgeführt wird, sondern auch was ist eine Arbeitsbelastung? Möglicherweise befinden Sie sich heute in der Welt der Optimierung einer VM, morgen jedoch möglicherweise in Containern und Mikrodiensten mit einem Cloud-Betriebssystem. Okay, das ist in Ordnung, aber wie finden Sie dann eine Kubernetes-Person in Kansas oder eine Docker-Person in Delaware? Die Art und Weise, wie Menschen diese Dinge angehen, entwickelt sich ständig weiter.

Es wird ein wenig beängstigend, aber wenn ich das Problem mithilfe von Software lösen kann, wird es doch belebend, oder? Weil wir Menschen in die Wertschöpfungskette einbeziehen und Software die weniger wertvollen, alltäglichen Dinge erledigen lässt.

Cory: Richtig.Dann können Sie dafür sorgen, dass Ihre hochrangigen Ressourcen tatsächlich einen Schritt zurücktreten und überlegen, was sie tun sollen, anstatt Warnungen zu verwalten.

Ben: Genau! Die Leute gingen in die Technologie, weil sie daran interessiert waren, die Technologielandschaft weiterzuentwickeln und ehrlich gesagt coole Dinge zu kreieren. Das waren die guten Gründe, sich mit Technologie zu beschäftigen, oder? Es war nicht an ein Alarmierungsregime gebunden. Es handelt sich also um eine Reihe neuer Fähigkeiten, die daraus hervorgehen können. Ich meine, wie wird jemals jemand jeden Container in Echtzeit einsammeln? Noch hat niemand dieses Problem beantwortet. Und die Antwort ist, dass dies über Software erfolgen wird.