Bob Friday, Chief KI Officer von HPE Networking, und ich haben kürzlich an einem Podcast mit Tech Field Day teilgenommen. Die Ausgangsposition des Podcasts lautete: „Datencenter-Netzwerke brauchen KI.“ Dem stimmen wir vollumfänglich zu. In Teil eins dieser zweiteiligen Blog-Serie haben wir hervorgehoben, dass Diskussionen um die Nutzung von KI mit Ihren individuellen Zielen und Problemen verbunden sein müssen. Nach dem Untersuchen der Herausforderungen, die Betreiber von Datencenter-Netzwerken haben, ist es offensichtlich, dass KI hilfreich ist und Sie folgendermaßen unterstützen kann …
KI-native Innovationen bauen unsere Führungsposition bei Datencenter-Netzwerken aus
Da die Verbesserungen bei KI so schnell voranschreiten, wird sie ohne Zweifel zu einem großen Teil des Lebenszyklus von Datencentern werden – von Tag 0, zur Bereitstellung an Tag 1 und dem laufenden Betrieb an Tag 2. Wir haben kürzlich verschiedene neue AIOps-Funktionen für Datencenter-Netzwerke vorgestellt.
- Vorbeugende Wartung ermöglicht es, Netzwerkbetreibern, zukünftige Probleme zu erkennen und diese zu beheben, bevor sie tatsächlich auftreten.
-
- Systemzustand. Sie können anhand der Analysedaten von CPU- und Speicherauslastung sowie Temperatur und weiteren Eckdaten vorhersagen, wann ein Switch ausfallen wird.
- Kapazität. Sie können anhand der Link-Nutzung und des Datenverkehrswachstums antizipieren, wann es nötig ist, eine Fabric zu erweitern.
- Optik. Sie können anhand des Tx/Rx-Durchsatzes, Stromes, der Spannung usw. prognostizieren, wann ein optischer Transceiver ausfallen wird. Graue Ausfälle im Optikbereich stellen immer ein Problem dar und sie können schlimmer (schwerer zu entdecken) sein als ein kompletter Ausfall.
-
Anhand vieler derartiger Beispiele lässt sich erkennen, dass KI nicht auf eine dynamische und reaktionsfähige Art zum Einsatz kommt, wenn die Funktion erstmals gestartet wird. Zu Beginn legt das System oft eine statische Schwelle fest, die einen Alarm auslöst. Aber wie aus guten Trauben guter Wein wird, so verhelfen gute Daten zu einer guten KI. Daten zu aggregieren dauert zwar lang, dies ist aber gleichzeitig ein Punkt, bei dem wir im Vergleich zu unseren Mitbewerbern im Vorteil sind. Denn wir setzen seit 10 Jahren mit der Juniper Mist® Platform auf AIOps. Gute KI benötigt Zeit, um die Daten zu sammeln, zu lernen und zu trainieren sowie sich weiterzuentwickeln. Das übergeordnete Ziel hierbei ist die Optimierung der Benutzererfahrung. In Bezug auf Datencenter ist AIOps noch in einem Embryonalstadium, aber die Verbesserungen schreiten rasch voran.
- Servicelevel-Erwartungen umfassen die Zusammenfassung einer Vielzahl von Netzwerkparametern und die Kalkulation von zusammenfassenden Zustandsmetriken sowie die Analyse der auf die Metriken einwirkenden Probleme über einen gewissen Zeitraum. Dadurch erhalten Kunden ein umfassendes Bild Ihres Netzwerks und ob es den Anforderungen der Anwendungseigentümer und Endbenutzer gerecht wird.
- Die Dokumentationsabfrage stellt den Basisfall für virtuelle Netzwerkassistenten dar, mit dem die meisten Infrastrukturanbieter begonnen haben: Hierbei wird ein LLM mit Ihrer Produktdokumentation verknüpft, um die Suche zu erleichtern. Anschließend schreiten Sie zu komplexeren Anwendungsmöglichkeiten voran: Sie verknüpfen dann ein LLM mit Ihrer eigentlichen Unternehmensanwendungssoftware oder, wie in unserem Fall, Tools für das Netzwerkmanagement und die Automatisierung sowie den gigantischen Datenmengen, auf die sie Zugriff haben. Netzwerkbetreiber können mit den Tools auf neue, andere und bessere Weise interagieren als dies gegenwärtig der Fall ist – und das sogar durch natürliche Sprache. Mit Marvis™ AI Assistant verfügen wir über den besten Helfer in der gesamten Branche.
- Anwendungs-Assurance ist unabdingbar, denn der Sinn und Zweck eines Datencenters besteht darin, Anwendungen zu hosten und diese für Endbenutzer bereitzustellen. Unsere Lösung kombiniert AIOps und Intent-based Networking. Algorithmen zur Identifizierung von Anomalien erkennen, wann ein Datenverkehrsstrom nicht korrekt aussieht. Die Informationen werden mit einem deterministischen Verständnis dafür kombiniert, welche Anwendungen zu einem bestimmten Zeitpunkt durch welche Ports fließen. Die Performance von Unternehmensnetzwerk und Anwendungen sind also miteinander verknüpft.
- Eine finale Kategorie von AIOps im Datencenter, und vielleicht auch die wichtigste, ist das Experimentieren. Large-Language-Modelle (LLMs) sind faszinierende, fast schon magische Maschinen. Selbst die Personen, die an ihrer Erstellung beteiligt sind, werden zugeben, dass sie auch nicht immer verstehen, wie die zugrundeliegende Intuition funktioniert.
Jedes Unternehmen, das sich im weitesten Sinne in einer Unternehmenstransformation befindet, sollte grundlegende LLMs nutzen und diese optimieren. Unternehmen sollten diese vorhandenen Schätze an Firmendaten vektorisieren, damit sie anhand von Retrieval-Augmented Generation (RAG) in ein KI-Modell eingespeist werden können. Jedes Unternehmen, das Software verkauft, sollte versuchen, diese Software mit LLMs oder anderen KI-Modellen zu verknüpfen. In der Netzwerkbranche rechnen wir damit, dass das Model Context Protocol (MCP) unerlässlich für agentische KI werden wird. Falls Sie noch keinen MCP-Server für Ihre Unternehmenssoftware erstellt haben, dann sollten Sie dies jetzt tun.
Eine nicht unerhebliche Menge an KI-Innovationen in den nächsten Jahren wird von Kunden selbst kommen. Wenn Anbieter den Kunden offenen Systeme an die Hand geben, stehen uns erstaunliche und sogar unerwartete Ergebnisse bevor. Im Verlauf der Geschichte wurden viele Branchen durch revolutionäre Innovationen transformiert, die nicht von den Anbietern vorangetrieben wurde, sondern von den Endbenutzern.
Uns stehen aufregende Zeiten bevor
Die meisten von uns werden von Informationen zu KI und der Geschwindigkeit dieses Wandels überwältigt. Wir wollen sie informieren und nicht überfordern. Aber KI ist auch zugänglich wie nie zuvor. Jeder kann eines der Tausenden von KI-Modellen herunterladen, die bei „Hugging Face“ kostenlos verfügbar sind. Ein Einsteiger kann ganz einfach einen MCP-Server erstellen und ihn mit verschiedenen Datenquellen verbinden. Und wenn er nicht mehr weiterkommt, muss er nur einen KI-Helfer wie Claude um Rat fragen. LLMs sind schon fast menschliche Entitäten, mit denen man interagieren kann. Es ist wirklich eine aufregende Zeit für Netzwerkingenieure.