Seit Beginn dieses Jahres macht das Open Compute Project (OCP) von sich reden. Keine fünf Jahre nach Gründung des Projekts durch Facebook traten im Januar 2016 bedeutende Telekommunikationsfirmen der Organisation bei. Es waren AT&T, die Deutsche Telekom, Verizon, SK Telecom (Singapur) und EE, der größte britische Mobile-Provider kurz vor seiner Übernahme durch BT. Zusammen mit einigen Softwarefirmen, die zum Teil ebenfalls bei dieser Gelegenheit OCP-Mitglieder wurden gründeten diese Firmen sofort ein OCP-Projekt „Telco“, das Telekommunikations-Systeme entwickeln will.

Viele Beobachter verstanden das als Angriff auf Netzwerkanbieter

…allen voran Cisco, eigentlich auch Mitglied im OCP. Denn die Erklärungen der OCP-Neulinge zu ihrem Beitritt hatten einen Argumentationsstrang: Telekom-Unternehmen wandelten sich zu softwaregetragenen Service-Anbietern in der Cloud. Dafür bedürfe es Virtualisierung auf Basis kostengünstiger Commodity-Hardware. Die Preise von Cisco und dergleichen erfüllen diese Anforderung nicht. Unter dem Dach der OCP wollen die Telekom-Größen also günstig herstellbare, standardisierte Telekom-Komponenten entwickeln. Weil die Referenzdesigns veröffentlicht werden, könnten andere Hardwarefirmen den Ciscos dieser Welt Konkurrenz machen.

Für die nächsten OCP-Schlagzeilen sorgte Google

…mit dem Beitritt zur Initiative Anfang März. Google verkündete sogleich, vor allem im OCP-Projekt „Server“ aktiv zu werden. Zum einen brachte Google gleich einen Entwurfsvorschlag für 48-Volt-Server mit. In Racks ist bisher 12 Volt die Standardspannung; 48 Volt würde einen geringeren Energieverlust bei der Umspannung von 230 V und weniger Leitungsverlust im Rack mit sich bringen.

Laut Google könnte allein das den Energieverbrauch von Racks um bis zu 30 Prozent senken. Die Umstellung würde aber außer den Motherboards auch noch Laufwerke, Ventilatoren etc. betreffen und ließe sich auch für Netzwerkkomponenten denken. Zwar gibt es schon Server für 48 Volt, aber nicht standardisiert, und die Spannnungserhöhung würde sich im gesamten Rechenzentrum ausbreiten.

Zum anderen präsentierte Google gleich noch den Wunsch nach weniger tiefen Server, als sie bisher in den OCP-Standards vorgesehen sind. Der Hintergrund ist leicht nachzuvollziehen: Geringere Bautiefe heißt insgesamt mehr Racks pro Quadratmeter Rechenzentrum. Und das Ganze würde nicht dadurch teuer, dass mehr Abwärme entsteht, also die vorhandenen Kühlsysteme nicht reichen. Bei 48-V-Technik wird ja weniger Strom verbraucht, also weniger Abwärme produziert.

Google kam gar noch mit einem dritten Vorschlag, der dem Open Compute Project eine neue Dimension geben würde: Man solle ich doch um Software kümmern. Es geht Google allerdings um eine hier hardwarenahe Software, nämlich das Simple Network Management Protocol, SNMP. Über dieses kommunizieren IT-Geräte in den Racks Informationen über ihren Betriebszustand, zum Beispiel Auslastung, Betriebstemperaturen, Ventilatorengeschwindigkeit. Das Protokoll ist schon ziemlich in die Jahre gekommen.

Innerhalb weniger Monate hat das Open Compute Projekt also bedeutende Firmen der IT-Branche gewonnen

…, was sich auch gleich in der finanziellen Grundlage niederschlagen wird, denn die Newcomer sind auch gleich Topsponsoren geworden. Als Platin-, Gold- und Silber-Sponsoren zählt das OCP nun schon 33 Firmen. Dazu kommen noch 61 Unternehmen als „Community Member“. Hinter weiteren einigen hundert individuellen Mitgliedern dürften in vielen Fällen ebenfalls Firmen stehen, die sich eine teurere Mitgliedschaft nicht leisten wollen oder können.

Das OCP arbeiten nun in neuen „Projects“. Neben den genannten für Server und Telco sind das: Storage, Open Rack, Networking, High Performance Computing, Hardware Management, Data Center sowie Certification and Interoperability. Die Projekte legen ihre Einzelprojekte jeweils nach einer ersten Vorlaufphase einem Incubation Committee zur Genehmigung vor. Die macht dann den Weg frei für eine nächste Standardisierung mit Referenzimplementierung. Dutzende Teilprojekte sind inzwischen bei der Version 1 oder höher angekommen, entsprechende Systeme gibt es. Allerdings ist die Zertifizierung kaum bekannt.

Der Aufschwung und die Ergebnisse des OCP dürfte die Diskussion, ob Open Source bei Hardware überhaupt möglich ist, beenden.

Das wurde früher in Zweifel gezogen, weil es bei Hardware eben nicht so schnell immer neue Versionen geben kann, Verbesserungen und Fehlerbehebungen also viel mehr Zeit verbrauchen. Ansonsten ist Open Source für Hardware ein alter Hut. Der Autor erinnert sich an Bauanleitungen aus Fachzeitschriften, mit denen er zu Anfang der 70er Jahre als Schüler Kurzwellen-Empfänger und -Sender zusammenlötete und ein paar Ausgaben später verbesserte.

Der Aufstieg des OCP signalisiert, dass es in heutigen Märkten kaum mehr möglich ist, mit eigener, proprietärer Hardware den Markt zu erobern. Man muss innovative Ideen mit anderen Herstellern teilen, um am Markt zu Bedeutung, also passablen Preisen mit entsprechender Nachfrage, zu kommen. Das Open Compute Project ist eindeutig von denen getrieben, die auf Cloud Computing setzen und entsprechend massenhaften Bedarf an Commodity-Hardware für ihre riesigen Rechenzentren haben. Die Produkte gibt es aber für alle. Kurioserweise hilft der Trend zum Cloud Computing in diesem Punkt auch den Anwendern, die ihre eigenen Rechenzentren kostengünstiger betreiben wollen.

*Ludger Schmitz ist freiberuflicher Journalist in Kelheim.