AI-Systeme optimieren die Kühlung von Rechenzentren

    Vor einem Jahr verbrauchten die globalen Rechenzentren 2% der gesamten auf der Erde erzeugten Elektrizität. Analysten zufolge wird diese Zahl bis 2020 auf 5% steigen. Gleichzeitig wird rund die Hälfte der gesamten Energie für die Kühlung aufgewendet . Diese Kosten sollen KI-Systeme reduzieren.

    Heute werden wir über die neuesten Entwicklungen in diesem Bereich sprechen.


    / photo Die National Archives (UK) CC

    Google-Projekt


    Im Jahr 2016 entwickelten DeepMind und Google ein System zur künstlichen Intelligenz , das die einzelnen Komponenten des Rechenzentrums überwacht. Sie gab den Administratoren im Rechenzentrum Empfehlungen zur Optimierung des Server-Stromverbrauchs. Die Lösung hat den Energieverbrauch für den Betrieb von Kühlsystemen um 40% und den PUE- Anteil um 15% reduziert .

    Laut den Rechenzentrum-Betreibern waren die Hinweise von Maschinenalgorithmen für ihre Arbeit hilfreich, ihre Verarbeitung dauerte jedoch zu lange. Dan Fuffffinger (Dan Fuenffinger), einer der Ingenieure von Google, schlug daher vorVollständige Übertragung der Steuerung von Klimaanlagen auf intelligente Lösungen. Dies hätte die Betreiber von Rechenzentren entlasten sollen, da diese lediglich den gesamten Prozess steuern und steuern müssten.

    Die nächsten zwei Jahre das Unternehmen verbessert seine KI - System, und ist nun vollständig steuert die Kühlserverräume. Beispielsweise "vermutete" der Maschinenalgorithmus, dass die kalte Luft im Winter das Wasser in den Kühlmaschinen stärker kühlt und dies zur Optimierung des Stromverbrauchs verwendet. Dies reduziert die Energiekosten um weitere 30%.

    Google geht davon aus, dass ihre Entwicklung und seine Entsprechungen den Besitzern von Rechenzentren weiter dabei helfen werden, die Kosten für Kühlsysteme mindestens zweimal zu senken und die CO2-Emissionen in die Atmosphäre zu reduzieren.

    Wie es funktioniert


    Tausende physikalische Sensoren überwachen das gesamte Kühlsystem im Rechenzentrum des Unternehmens. Daten von ihnen werden an die Eingabe des in der Cloud bereitgestellten AI-Systems weitergeleitet. Dies ist ein neuronales Netzwerk aus fünf verborgenen Schichten mit jeweils 50 Neuronen.

    Es arbeitet mit 19 verschiedenen Parametern, einschließlich der Gesamtlast der Server, der Anzahl der laufenden Wasserpumpen, der Luftfeuchtigkeit auf der Straße und sogar der Windgeschwindigkeit. Alle fünf Minuten liest das System den Sensor (es ist etwa 184.000 Proben -. Training für Netzwerk benötigt 70% von ihnen, während die restlichen 30% verwendet wurde Cross-Check ) und verwendet sie einen PUE - Wert zu optimieren.

    Sie erstellt eine Liste mit Vorhersagen, wie diese oder jene Änderung im System den Stromverbrauch des Rechenzentrums und die Temperatur im Computerraum beeinflussen wird. Zum Beispiel kann eine Änderung der Temperatur des „kalten“ Korridors zu Lastschwankungen bei Kühlern, Wärmetauschern und Pumpen führen, die zu nichtlinearen Änderungen der Geräteleistung führen.

    Aus der Liste, die erstellt wurde, werden die effektivsten Maßnahmen ausgewählt, die den Stromverbrauch stärker als andere reduzieren und nicht zu Fehlfunktionen des Rechenzentrums führen. Außerdem werden diese Anweisungen an das Rechenzentrum zurückgesendet, wo das lokale Kontrollsystem erneut überprüft, ob es Sicherheitsanforderungen erfüllt (und deren Implementierung nicht zu irreparablen Folgen führt).

    Seit die KI-Systeme einen Teil der Verantwortung für den reibungslosen Betrieb von Diensten wie Google Search, Gmail und YouTube verschoben haben, haben die Entwickler eine Reihe von Schutzmaßnahmen bereitgestellt. Darunter befinden sich die Algorithmen zur Berechnung des Unsicherheitsindex. Das KI-System bewertet für jede Milliarden möglicher Aktionen die Glaubwürdigkeit und eliminiert sofort diejenigen mit einem niedrigen Indikator (dh mit einer hohen Ausfallwahrscheinlichkeit).

    Eine andere Schutzmethode war die Überprüfung auf zwei Ebenen. Die durch MO-Algorithmen berechneten optimalen Aktionen werden mit den von den Rechenzentrumsbetreibern vorgegebenen Sicherheitsrichtlinien verglichen. Nur wenn alles in Ordnung ist, werden Änderungen an der Bedienung von Klimaanlagen vorgenommen.

    Gleichzeitig sind die Bediener jederzeit bereit, den „automatischen“ Modus zu deaktivieren und die Kontrolle zu übernehmen.

    Ähnliche Entwicklungen


    Nicht nur Google entwickelt Machine Learning-Lösungen für das Management von Kühlsystemen in Rechenzentren. Beispielsweise arbeitet Litbit an der Dac-Technologie zur Überwachung der verbrauchten Rechenressourcen und der Leistung.


    / Foto reynermedia CC

    den Zustand der Geräte Dac überwachen mit IoT-Sensoren. Das System kann Ultraschallfrequenzen "hören" und anormale Bodenschwingungen "fühlen". Durch die Analyse dieser Daten ermittelt Dac, ob alle Geräte ordnungsgemäß funktionieren. Im Problemfall benachrichtigt das System Administratoren, generiert ein Ticket im technischen Support und deaktiviert sogar die Hardware (in einer kritischen Situation).

    Eine ähnliche Lösung wird von Nlyte Software erstellt, die zusammengeführt wird.mit dem IBM Watson IoT-Team. Ihr System sammelt Daten zu Temperatur, Luftfeuchtigkeit, Stromverbrauch und Ausrüstungsnutzung im Rechenzentrum und gibt Ingenieuren Tipps zur Optimierung der Arbeitsabläufe. Die Lösung funktioniert sowohl mit der Cloud- als auch der lokalen Infrastruktur.

    Die Einführung von KI - Systemen im Rechenzentrum ermöglicht es über die übliche ging die DCIM-Lösungen (Software zur Überwachung von Rechenzentren). Unter den Experten der IT-Branche gibt es die Meinung, dass die meisten Prozesse im Rechenzentrum bald automatisiert sein werden. Dadurch können sich Administratoren in Rechenzentren auf andere, wichtigere Aufgaben konzentrieren, die das Wachstum und die Entwicklung von Unternehmen beeinflussen.



    PS-Materialien zum Thema aus dem ersten Corporate IaaS-Blog:


    Jetzt auch beliebt: