Autonome Systeme und Menschen aus der Middleware herausholen: Fragen und Antworten mit Ben Nye, CEO von Turbonomic

Autor: Lewis Jackson
Erstelldatum: 12 Kann 2021
Aktualisierungsdatum: 25 Juni 2024
Anonim
Autonome Systeme und Menschen aus der Middleware herausholen: Fragen und Antworten mit Ben Nye, CEO von Turbonomic - Technologie
Autonome Systeme und Menschen aus der Middleware herausholen: Fragen und Antworten mit Ben Nye, CEO von Turbonomic - Technologie

Inhalt


Wegbringen:

Unser Gespräch mit Ben Nye, dem CEO von Turbonomic.

Vielleicht haben Sie von autonomem Computing gehört. Dies bezieht sich auf einen Computer oder ein System, der bzw. das sich selbst organisieren und verwalten kann. Und bis vor kurzem war es immer noch ein futuristischer Wunschtraum. Wir wollten etwas mehr über die Funktionsweise eines autonomen Systems erfahren und sprachen daher mit Ben Nye, dem CEO von Turbonomic und dem Geschäftsführer von Bain Capital Ventures. Turbonomic (ehemals VMTurbo) wurde kürzlich umbenannt, um die Funktionen der Software genauer darzustellen. Der neue Name bezieht die Kernthemen von Turbonomic in seine Anwendungsmanagementplattform ein: Turbo (Echtzeitleistung), autonome Steuerung (Selbstorganisation und Verwaltung von Arbeitslasten) und wirtschaftliche Prinzipien (Angebot und Nachfrage). Hier spricht Ben über autonome Systeme und die Bedeutung der Automatisierung in immer komplexeren, datengesteuerten Umgebungen.


Techopedia: Sie sind mehrfach auf der Forbes Midas-Liste für Top-Risikokapitalgeber (VCs) aufgeführt. Als VC haben Sie einen interessanten Blickwinkel auf die gesamte Technologielandschaft mit dem Ausmaß, in dem sich die Welt im Laufe der Jahre verändert hat. Was überrascht Sie, wenn Sie zurückblicken, wie viel sich im Rechenzentrum geändert hat?

Ben Nye: Die kurze Antwort lautet: Ich denke, das Tempo der Änderungen im Rechenzentrum hat sich wirklich beschleunigt, so wie es die Leute noch nie gesehen haben. Was geschah, war diese Entwicklung des softwaredefinierten Rechenzentrums und im Grunde die Abstraktion von der Hardware. Dies eröffnete einen ganzen Wachstumsschub innerhalb der Software-Elemente.

Anstatt sich nun mit den Aktualisierungszyklen von Hardwareanbietern zu befassen (die lange Zeit fast als Torhüter für das Rechenzentrum fungierten), wurde nun buchstäblich die Frage beantwortet, wie schnell Ideen erstellt werden können - denn Software, ist wirklich Ideen. Ohne die Einschränkungen bei der Ideenfindung war es eine sehr aufregende und unterhaltsame Zeit, aber das Tempo der Änderungen im Rechenzentrum und sogar bei der Definition des Rechenzentrums hat sich wesentlich schneller als je zuvor entwickelt.


Ich finde das sehr interessant, als wir zu einem softwaredefinierten Rechenzentrum gingen und alle Controller, APIs und Regler der Hardware-Welt in Software neu definiert wurden. Wir haben darüber nachgedacht, wie Leistung und Produktivität auf neue Weise gesteigert werden können, indem wir die Anwendung und die veränderten Anforderungen an diese Anwendung aufgreifen und sie an die neu definierten Steuerungen in der Software binden, da letztendlich die Software dazu gehört Software.

Wenn Sie dies tun, können Sie jetzt die Human Middleware zwischen der Anwendungsschicht und der Infrastrukturschicht entfernen, da Sie sie jetzt zum ersten Mal direkt miteinander verknüpfen können - hier ist ein wichtiges Wort - autonom, was bedeutet, dass sich die Anwendungen buchstäblich selbst verwalten und selbst organisieren können.

Das macht es auch wirtschaftlich in dem Sinne, dass die Nachfrage jetzt das Angebot findet und wir uns auf ein Verbrauchsmodell der IT konzentrieren, ein Wirtschaftsmodell anstelle eines allokationsbasierten Modells oder eines angebotsbasierten Modells. Das ist eine ziemlich grundlegende Wendung in der Geschichte, wie IT oder ein Managementmodell der Technologiebranche funktionieren sollten. Dies führte zu einer besseren Leistung und einer höheren Kosteneffizienz. Es macht die Kunden auch viel agiler und belastbarer und nutzt die Arbeitskräfte auf dem Markt besser aus

Hier ist, was ist so ironisch an dem, was 2016 mit jedem der softwaredefinierten Rechenzentren passiert ist. Zuerst überwachen Sie Ihre Hardware, um herauszufinden, ob die Anwendungen fehlerhaft sind, was bedeutet, dass sie eine Dienstgüte oder ein SLA verletzen. Während wir jedoch den Fehler mithilfe der Software suchen, kehren wir zur Hardware zurück, um maschinengenerierte Warnungen zu erhalten . Der zweite Hinweis ist, dass wir zulassen, dass Anwendungen, mit denen das Geschäft läuft, unterbrochen werden. Der dritte ist, dass wir die sich wiederholenden maschinengenerierten Warnungen annehmen und diese Warnungen ausgeben zu Menschen.

Keine Bugs, kein Stress - Ihre schrittweise Anleitung zur Erstellung lebensverändernder Software, ohne Ihr Leben zu zerstören

Sie können Ihre Programmierkenntnisse nicht verbessern, wenn sich niemand um die Softwarequalität kümmert.

Das muss rückwärts sein.

Deshalb wollten wir das IT-Management-Modell von Zuweisungen oder Schätzungen auf ein bedarfsorientiertes, verbrauchsorientiertes Modell umstellen.

Lesen Sie: Das bedarfsgesteuerte Rechenzentrum - Was Systemadministratoren von der Wall Street lernen können

Techopedia: Nun, da Sie es erwähnen, machen wir alles softwaredefiniert, aber dann werden die Warnungen nur an den langsamen Teil des Prozesses gesendet, der, wie Sie sagten, die menschliche Middleware ist.

Sie haben den Begriff autonom erwähnt. Können Sie vielleicht ein bisschen mehr über die Bedeutung autonomer Systeme in der IT sprechen? Angesichts der Namensänderung von VMTurbo zu Turbonomic denke ich, dass dies wichtiger ist, als die meisten Leute glauben.

Ben Nye: Absolut. In erster Linie die Definition von autonom, wenn es auf das Computing angewendet wird, handelt es sich um Systeme, die sich selbst verwalten und organisieren können.

Denken Sie also an Bayes'sche Netzwerke, an Suchalgorithmen, an Big Data, die heute als "Deep Learning" bezeichnet werden. Das sind Formen künstlicher Intelligenz. Am interessantesten an Turbonomic finde ich, dass es sich um die ultimative Form der künstlichen Intelligenz handelt, da die Anwendungsworkloads in der Software autonom entscheiden, auf welchen Infrastrukturelementen sie ausgeführt werden sollen und wann sie sich bewegen, dimensionieren, starten und stoppen sollen. klonen sich. Das ist wirklich, wirklich interessant - und das tun wir, indem wir die Abstraktion und Liquidität nutzen, die Virtualisierung, Container oder Clouds bieten.

Wenn Sie eine ähnliche Abstraktion der verschiedenen Arten von Anforderungen haben - also VMs, Container, JVMs -, sehen Sie sich alle diese Formen der Nachfrage und alle diese Formen des Angebots an und sie werden abstrahiert. Lassen wir also die Nachfrage sich selbst aussuchen oder an das Angebot anpassen. Und wenn sie sich dann auf einem physischen Host befinden und es zu einer Überlastung kommt, anstatt einen Ausfall zuzulassen und eine Warnung zu generieren und die Anwendung zu haben, können Sie es einfach zulassen, dass sie eine Entscheidung zum Verschieben trifft selbst? Solange Sie Ihre Entscheidung einpreisen - den Umzug und die Kosten für den Rückzug -, können Sie tatsächlich weitaus interessantere Entscheidungen zur Ressourcenzuweisung treffen.

Techopedia: Ich liebe die Analogie von Angebot und Nachfrage. In der Wirtschaftstheorie sind die Bezugsquellen kurzfristig festgelegt und können sich nur über einen langen Zeitraum ändern. Mit dem, was Sie beschreiben - wenn Sie diese wirtschaftliche Analogie beibehalten - ändern Sie das gesamte Paradigma. Das heißt, Sie können das Angebot kurzfristig ändern, oder? Sie haben die volle Flexibilität, um tatsächlich effizienter zu sein, und wenn Sie über die Ressourcennutzung als Markt nachdenken, haben Sie einen nahezu effizienten Markt in Echtzeit?

Ben Nye: Du bist genau richtig. Es ist ein Wirtschaftsmodell, das zum Prinzip wird, nach dem die Nachfrage das Angebot findet, die IT jedoch nach wirtschaftlichen Grundsätzen verwaltet wird. Und wie John Maynard Keynes sagte: "Auf lange Sicht sind wir alle tot."

Techopedia: Ich glaube nicht, dass Sie im Moment einen CIO treffen würden, der noch nicht umgezogen ist oder nicht ernsthaft darüber nachdenkt, mehr Ressourcen in die Cloud zu stecken. Wo sehen Sie die Branche in den kommenden Jahren?

Ben Nye: Ich denke, Sie werden eine Reihe von Änderungen sehen. Uns ist ziemlich klar, dass es sich nicht um eine vollständige Neuformulierung der Technologie handeln wird. Genau wie der Mainframe immer noch hier ist, werden Sie wahrscheinlich nie eine 100% -Replatform sehen. Höchstwahrscheinlich sehen Sie eine hybride Welt. Sie haben private und öffentliche Clouds, aber ich denke, dass public wirklich eine öffentliche Multi-Cloud ist und keine öffentliche Single-Cloud. Wenn man sich die größten Spieler hier ansieht, gibt es nur eine Handvoll. Aber wenn Sie nach Europa oder in den Rest der Welt reisen, sehen Sie viele Träger, die ebenfalls alle Wolken sind. Ich denke also nicht, dass dies ein großer Sprung ist, oder? Die eigentliche Frage ist jedoch, wie Kunden die richtigen Clouds beschaffen, um ihre Workloads auszuführen. Unsere Theorie hinter dem Unternehmen ist das Jede Workload sollte ausgeführt werden können jede Infrastruktur, irgendwo. Das bedeutet On-Prem oder Off und zu jeder Zeit, denn denken Sie daran, Zeit ist Ersatz für Nachfrage.

Wenn sich die Nachfrage ändert, möchten Sie möglicherweise in die Cloud platzen. Oder wenn Sie diese Workloads dauerhaft in die Cloud verschieben, welche Workloads ziehen Sie dann zurück? Denn jetzt haben Sie Kapazität in Ihrem Rechenzentrum. Warum doppelt bezahlen? Eine der Aufgaben, die wir heute gemeinsam mit Verizon Intelligent Cloud Control, aber auch mit anderen Umgebungen ausführen, besteht darin, Kunden die Möglichkeit zu geben, ihre Entscheidung darüber zu treffen, wo diese Workloads ausgeführt werden sollen. Dies hängt nicht nur vom Preis ab, sondern kann auch von entscheidender Bedeutung sein auf die Anwendungsleistung. Dann können Sie andere Überlegungen anstellen, z. B. den Preis oder die Einhaltung von Vorschriften, die Souveränität der Daten oder die Sicherheit, sowie andere Ressourcen, die in diesem von uns beschriebenen Markt nur grundlegend handelbare Ressourcen sind.

Techopedia: Das ist das Wirtschaftsmodell?

Ben Nye: Ja. Es geht also wieder um das Wirtschaftsmodell. Denken Sie nur daran, wie logisch dies ist. Dies ist übrigens nicht nur eine Analogie, sondern auch die Funktionsweise des Modells. Die Workloads haben ein Budget und die Workloads befassen sich mit Warteschlangentheorie und Überlastung. Es ist keine lineare Preiserhöhung, wenn es anfängt zu überfüllen. Es steigt exponentiell an, wodurch das Budget beeinträchtigt wird und die Arbeitsbelastung eine Entscheidung für den Umzug trifft.

Solange Sie alle Komplexitäten im Rechenzentrum beseitigt haben, können Sie jetzt die IOPS einer XtremIO-Box, einer Pure Storage-Box, einer Compellent-Box und einer 3Par-Box handeln, da sie alle unterschiedliche IOPS-Eigenschaften aufweisen, aber die Anwendung dies kann Kaufen Sie diese Ressourcen daher nach eigenem Ermessen. Es ist nichts anderes als ein Blick auf CPU oder vCPU, MEM oder vMEM, oder? Sie sind alle handelbar. Soll ich also hier oder hier rennen? Es spielt keine Rolle! Das gemeinsame Gut ist hier die Infrastrukturversorgung.

Das übliche Gut ist hier das Angebot an Infrastruktur und der Grund, warum es darauf ankommt, ist - ich werde eine Analogie verwenden -, wenn Sie sich erinnern

1978 haben wir die Fluggesellschaften dereguliert. Davor war jeder Sitzplatz derselbe, wir haben alle den gleichen Preis berechnet, und obwohl es logisch war, war es falsch, weil die Zahlungsbereitschaft auf der Verbraucherseite sehr unterschiedlich war. Die Sitze waren also eine Ware, aber wenn man den Schwerpunkt auf die Nachfrage verlagerte, stellte man fest, dass der Preis pro Sitz - obwohl die Sitze gleich waren - eine unterschiedliche Zahlungsbereitschaft aufwies. Wir haben also die Ressource, die die gängige Ware darstellt, im Internet veröffentlicht - zuerst Sabre und Apollo, dann Travelocity, Kayak und Priceline.

Plötzlich änderte sich die gesamte Branche, wenn Sie die Nachfrage das Angebot auswählen ließen. Die Auslastungsfaktoren stiegen, aber die Flugkosten sanken und die gesamte Fluginfrastruktur, die wir in diesem Land haben, wurde modernisiert. Es war ein großer Fortschritt. Übrigens, wenn Sie sich Priceline heute ansehen, ist es 70 Milliarden US-Dollar wert. Das ist mehr als jede andere Fluggesellschaft und sie besitzen kein einziges Flugzeug.

Techopedia: Interessant. So habe ich es mir noch nie vorgestellt ...

Ben Nye: Sie besitzen kein Flugzeug, sie besitzen kein Gate, sie besitzen keinen Sitzplatz, sie beschäftigen keinen Piloten, oder? Und dann sagen Sie: „Aber welche anderen Beispiele haben wir für eine angebotsorientierte Wirtschaft?“ Wechseln wir. Hotels sind angebotsorientiert, richtig? Sie haben ein Hotel, Sie können es nicht bewegen. Sie haben diese Räume Aber wie kostet man diese Zimmer? Und dann kommen Hotels.com, Expedia, Travelclick usw. Und das Gleiche ist passiert. Sie schauen sich Restaurants an und haben OpenTable. Sie schauen sich die Gelben Seiten an. Das wurde größtenteils ersetzt Sie sehen sich Kleinanzeigen in den Zeitungen an und diese wurden durch eBay oder Craigslist ersetzt.

Eines meiner Lieblingsbeispiele ist Uber. Wenn Sie in einer Stadt herumlaufen, werden Sie eine Reihe von Taxis sehen, die auf Menschen warten, und dann gehen Sie zu einem anderen Teil derselben Stadt, und es gibt eine Reihe von Menschen, die auf Taxis warten. Und Sie denken, das kann nicht richtig sein. Dann kommt Uber, der das Smartphone nutzt, um die Laufwerksversorgung nachzufragen. Jetzt haben Sie mit Uber 90% der Nachfrage innerhalb von 10 Minuten gedeckt, während in der Taxi-Welt 90% der Nachfrage nicht innerhalb von 10 Minuten gedeckt werden und aus diesem Grund betrug die letzte Runde von Uber 62 Milliarden US-Dollar. Und denk dran, sie besitzen weder ein Taxi noch ein Auto!

Techopedia: In einem typischen Rechenzentrum machen wir also im Wesentlichen dasselbe wie ein Taxi, oder?

Ben Nye: Betrachten Sie es also so: Die Workloads sind die Budgetinhaber, denn aus diesem Grund haben wir das Rechenzentrum gebaut. In diesem Beispiel sind sie effektiv Ihre Menschen. Dann habe ich diese Ressource, diese gemeinsame Ressource, alle vollständig abstrahiert. Das nennt sich Versorgung und kann überall sein - alles, was die Anwendung benötigt, von der Server- und Computerumgebung über das Netzwerk bis hin zum Speicher. Jetzt wollen wir sicherstellen, dass dies ein effizienter Markt ist. Also, diese Budgetinhaber müssen in der Lage sein, autonom zu handeln, das heißt autonom und in Echtzeit in Anbetracht des Ausmaßes der Änderung des Bedarfs an der Arbeitslast selbst oder in diesem Fall an der Anwendung. Das ist der Grund, warum dies sehr analog zur Nachfrage ist, die das Angebot findet. Mit diesem System erzielen Sie eine weitaus bessere Anwendungsleistung, da Sie nicht auf einen menschlichen Arbeitsengpass warten müssen, um auf eine maschinengenerierte Warnung zu reagieren und eine Entscheidung über die Pflege und Fütterung der App zu treffen. Sie tun dies stattdessen in Echtzeit. Und Sie tun dies im großen Stil, weil diese Institutionen, diese Kunden, täglich Tausende von Apps ausführen und diese Leistung erbringen müssen.

Zuallererst erhalten Sie ein viel besseres Spielerlebnis. Außerdem haben Sie keine Leute, die ihre Tage damit verbringen, Handelnde zu sein. Stattdessen sind sie wieder Denker und nehmen nicht nur maschinengenerierte Warnungen entgegen, sondern denken darüber nach, ob sie dem Unternehmen tatsächlich helfen können. Sie denken über die Micro-Service-Strategie und die Hybrid- und Multi-Cloud-Strategie nach sowie über softwaredefinierte Netzwerke und Netzwerkfunktionen und Virtualisierung - all diese Dinge, die das Geschäft tatsächlich vorantreiben und sie aus der Welt der Problemlösung für Anwendungen herausholen, oder Warnung reagiert.

Wir stellen tatsächlich fest, dass zwischen 40% und 60% des Rechenzentrumskapitals übermäßig bereitgestellt sind, und wir können es uns leisten, einen Großteil davon entweder neu zu verwenden - also den Kauf neuer Hardware zu vermeiden - oder außer Betrieb zu setzen und den Grund dafür anzugeben das ist so wichtig, ist -

Techopedia: Entschuldigung, lassen Sie mich das überprüfen, 40-60%? Entschuldigung, diese Zahl ist erstaunlich.

Ben Nye: Ja. Noch wichtiger ist, dass 14% des Stroms in diesem Land von Rechenzentren verbraucht werden.

Techopedia: So könnten wir 5-8% des gesamten Stromverbrauchs des Landes einsparen, wenn wir unsere Rechenzentren nicht übermäßig versorgen würden?

Ben Nye: Lassen Sie sich von mir unterstützen, um Ihnen zu erklären, warum, OK? Es geht zurück in die Welt der angebotsorientierten Wirtschaft. Wie wird die Größe einer neuen Anwendung angepasst, wenn Sie einen IT-Shop betreiben?

Techopedia: Ja, du gehst zum Architekten und sie raten, richtig? Und dann warten sie, bis es kaputt geht.

Ben: Genau. Du gehst in die Branche und du hast ein Gespräch, und sie wissen nichts, was du nicht weißt. Sie raten also, und Sie raten, und wir versuchen gemeinsam, die Größe zu erraten.

Sie werden also vier oder acht VCPUs zuweisen. Interessant ist nun, dass die Zuordnung einen physischen Fuß oder den virtuellen Fuß auf einem physischen Server umfasst. Jedes Mal, wenn eine Anfrage von dieser Anwendung eingeht, wird sie als vier oder acht VCPU in die Warteschlange gestellt. Im Grunde ist es so, als würden Sie in ein Restaurant gehen und sagen, Sie seien eine Gruppe von vier oder acht Personen, auch wenn Sie möglicherweise nur eine Gruppe von einer Person sind. Sie werden nie Platz nehmen.

Wir überlasten mit unseren Vermutungen, was bedeutet, dass wir die schlechteste Leistung erzielen und dies sehr teuer ist. Das ist das Problem Nummer eins. Problem Nummer zwei ist, dass Sie Ihre Anwendung jetzt nicht genau skalieren können, was die Frage aufwirft: Wie platzieren Sie sie, wenn Sie sie nicht skalieren können?

Sie raten noch einmal. OK, jetzt raten wir über die erste Sache, wir raten über die zweite Sache, dann gibt es diese Sache namens VM Sprawl oder eine VM ohne Nachfrage. Es wird in seinem Zustand belassen, anstatt entfernt zu werden, und dies reserviert auch Hardware. Dann versuchen wir, all diese Dinge in einem auf Menschen basierenden historischen Kapazitätsmodell zusammenzufassen. Da wir dieses Modell nur ein- oder zweimal im Jahr durchführen, müssen wir eine weitere Hecke einbauen. absichern, weil Nachfrage All diese Apps könnten zunehmen, und dann werden wir den Cluster "schließen", da wir diese Gruppe von Hosts als "voll" einstufen. Genau dort haben Sie jetzt die Hälfte der Kapazität Ihres Rechenzentrums eingesperrt und es ist zu viel bereitgestellt.

Techopedia: Es ist, als wären Sie auf einen Ausfall eingestellt, als gäbe es im alten Paradigma keine Möglichkeit, tatsächlich nicht zu viel bereitzustellen oder sich nicht auszubreiten ...

Ben Nye: Wenn Sie nur das Infrastrukturangebot sehen und verwalten, wie in aller Welt wissen Sie dann, ob Sie genug Angebot haben, um robust zu sein, wenn Sie die Nachfrage nicht sehen und verstehen und in Echtzeit anknüpfen können? Wenn Sie nur Angebot sehen, woher wissen Sie, ob Sie genug haben? Woher weißt du, ob du zu viel hast?

Techopedia: Nun, Sie stellen wahrscheinlich noch ein paar Köpfe ein, um weitere zu erraten. Sie geben mehr Geld für die Untersuchung dieses Problems aus, nicht wahr?

Ben Nye: Und Sie sind in der Größenordnung von immer noch grundlegend überversorgt, nennen es die Hälfte, und Sie kaufen unnötigerweise Hardware. Das gesamte Konzept der Virtualisierung in der ersten Instanzierung bestand darin, für jede einzelne App einen dedizierten Hardwarestapel zu haben. Ich werde diese Workloads zwischen dedizierten Stacks verschieben können, und daher bestand die gesamte Idee darin, Hardware bereitzustellen zum Durchschnitt der Spitzen statt der Summe der Spitzen des gesamten Hardwarekapitals.

Wenn Sie jetzt jedoch die autonome Echtzeitsteuerung, die Leistungssteuerung, die Verbrauchsseite der VM oder des Containers oder der Cloud übernehmen und über das Gleiche nachdenken; was machen wir? Wir gehen raus und testen jede einzelne App im Stresstest und es gibt Tausende - es gibt Hunderte bis Tausende von Apps in einer Umgebung, abhängig von der Größe des Kunden - und wir testen diejenigen im Stresstest für CPU, für vCPU, für MEM, für vMEM und so weiter, dass alle verschiedenen Elemente oder Ressourcen richtig? Und dann stellen wir wieder die Summe der Peaks bereit. Der Unterschied besteht darin, dass Sie keine Verzögerung oder keinen Engpass im Zusammenhang mit Arbeitskräften haben und jetzt den Durchschnitt der Spitzenwerte ermitteln können. Ratet mal, was wir tun können? Wir können diese Umgebung aktiv verwalten, da nicht alle Apps gleichzeitig einen Spitzenwert erreichen.

Techopedia: Wow. Das ist wirklich eine Rückkehr zu dem, worum es bei der Virtualisierung eigentlich eigentlich gehen sollte.

Ben: Dies ist Virtualisierung oder Containerisierung 2.0: Autonome Leistungssteuerung in Echtzeit.

Techopedia: Also, wenn die alte Break-Fix-Schleife eine veraltete Denkweise ist, wie erklären Sie das dem Durchschnittsbürger an der Front?

Ben Nye: Lass mich dir eine einfache Frage stellen: Warum überwacht man?

Techopedia: Nun, Sie möchten wissen, was falsch läuft oder wann etwas falsch läuft, oder?

Ben Nye: OKAY. Ja. Sie möchten wissen, wann es kaputt geht. Aber warum willst du es brechen lassen? Das ist die ganze Frage. Schauen Sie, es ist unvermeidlich, dass Sie einige Abteilungen oder Teile Ihres Rechenzentrums überwachen. Grundsätzlich kann ich jedoch sicherstellen, dass meine Anwendungen in dem von uns als erwünscht bezeichneten Zustand ausgeführt werden, der der richtigen Menge an Ressourcen entspricht Unterstützen Sie sie in Echtzeit, das ist eine weitaus bessere Welt, als auf Überwachung und Alarmierung zu warten und zu versuchen, darauf zu reagieren.

Als aus der Virtualisierung die ersten softwaredefinierten Rechenzentren hervorgingen, war dies ein wirklich interessanter Fortschritt, aber sie gingen einen Schritt zu weit, weil sie sich selbst das Rechenzentrums-Betriebssystem der Zukunft nannten und es direkt von der Stange war, oder? Wenn Sie jedoch die fünf Aufgaben eines Betriebssystems nachschlagen, ist die erste die Leistungsverwaltung. Lassen Sie mich also fragen, ob ein Hypervisor Leistungsmanagement betreibt.

Techopedia: Natürlich nicht.

Ben Nye: Kein Recht. Dann muss es als zweites die Ressourcenzuweisung durchführen. Nimmt der Hypervisor die Ressourcenzuweisung vor? Nein.

Wie wäre es mit Job Scheduling? Wie wäre es mit Reservierungen? Wie wäre es mit Planung? Nein, nein und nein. Plötzlich merkt man also, dass sie auf diese Weise Alarme generieren und die Anzahl der Alarme wächst und wächst, wenn wir die Ressourcen auf einer höheren Ebene nutzen, aber auch, wenn wir mehr Apps, mehr Formen der Arbeitsbelastung und mehr Orte erstellen in dem sie laufen können. Mit all diesen Warnungen werden die Leute plötzlich überfordert.

Das Wichtigste ist jedoch, dass wir durch die Verfolgung dieser Warnungen durch Menschen eine Trendwende bewirken Menschen in die modernen Rechenzentrums-Betriebssysteme ein, und das ist komisch, weil die Menschen, wie sich herausstellt, schlafen. Menschen haben Familien, Menschen machen Urlaub, und deshalb können Menschen keine Betriebssysteme sein. Deshalb haben wir dieses System zur Steuerung der Anwendungsleistung, Turbonomic, entwickelt, um genau diese fünf Dinge tun zu können. Wir sind uns einig, dass der Hypervisor eine großartige Erfindung ist und Container und Clouds, aber wir betrachten sie als Liquiditätsanbieter. Sie sind kein Betriebssystem. Der Rest des Betriebssystems basiert auf einem System zur Steuerung der Anwendungsleistung. Es erledigt diese Aufgaben, es erledigt Leistungsmanagement, Ressourcenzuweisung, Auftragsplanung, Reservierungen und Planung - das ist der ganze Wert dessen, was wir haben. Deshalb gibt es uns auf dem Markt.

Techopedia: Sagen Sie mir, welche Rolle Ihrer Meinung nach maschinelles Lernen oder KI in den nächsten zwei bis fünf Jahren dabei spielt. Wie verändert Turbonomic mit AI das Rechenzentrum?

Ben Nye: Es gibt einige unglaubliche, interessante Schlussfolgerungen, die man in den unterschiedlichsten Umgebungen ziehen kann. Ich würde sagen, dass das, was wir taten, weitaus präziser ist. Denken Sie daran, dass eines der Probleme bei großen Datenmengen darin besteht, dass Sie Zeit benötigen, um diese Daten zu entwickeln, sie dann zu korrelieren und die Rückschlüsse auf diese Daten zu ziehen.

Manchmal werden Sie die falsche Schlussfolgerung ziehen, und es ist sehr schwer zu wissen, wie lange es dauert, bis der große Datenbestand diese Schlussfolgerung verlernt, sei es richtig oder falsch. Am Ende ist es dann immer noch mit einem Menschen oder irgendeiner Form von statischer menschlicher Arbeitskomponente beendet, um tatsächlich eine Handlung zu unternehmen. In unserem Fall ist dies autonome Intelligenz. Es ist nicht nur künstliche Intelligenz, und diese Workloads treffen im Modell wirklich eigenständige Entscheidungen, sondern Sie tun dies mit einem gewissen Maß an Präzision. Es ist weitaus größer als das, was mit einem einfachen Big-Data-Datensatz erreicht werden kann.

Techopedia: Wenn Sie einen mit dem durchschnittlichen Systemadministrator oder dem durchschnittlichen Rechenzentrumsarchitekten oder dem durchschnittlichen CIO lassen könnten, wo werden die Dinge in den nächsten ein oder zwei Jahren sein? Was ist es, was die Leute jetzt nicht merken, wenn sie etwas über 2017, 2018 und darüber hinaus wissen müssen?

Ben Nye: Ich denke, das Wichtigste ist, sich daran zu erinnern, warum wir die Technologie-Arena betreten haben. weil wir von Grund auf neugierig sind und der US-Wirtschaft - oder jeder anderen Volkswirtschaft - ermöglichen wollen, mit weniger mehr zu erreichen. So laufen und rollen Unternehmen. Es kann nicht richtig sein, an dem Ansatz eines allokations- oder versorgungsbasierten Modells von gestern festzuhalten, wenn es erforderlich ist, dass wir in einer Größenordnung von etwa 50% überprovisioniert und in einer Anwendungswelt der Fehlerbehebung arbeiten und wohin wir uns gewandt haben Arbeit von Denkern zu Machern.

Es gibt einen besseren Weg. Der bessere Weg ist, neue Ideen und neue Technologien von neuen Anbietern zu nutzen, die Ihnen die Möglichkeit bieten, die Nachfrageseite, die Verbrauchsseite einer VM, eines Containers, einer Cloud zu betrachten und leistungsfähiger zu arbeiten Größere Skalierbarkeit durch intelligentere Arbeitsabläufe und höhere Effizienz Ihres Kapitals sowie Flexibilität in Bezug auf Agilität und Ausfallsicherheit in Ihrem gesamten Betrieb.

Deshalb fand ich diese Gelegenheit so überzeugend, dass ich sie nutzen wollte, und warum ich so fest daran glaube.

Wenn Sie die Application Performance Control Platform von Turbonomic kostenlos testen möchten, können Sie sie hier herunterladen.