www.wikidata.de-de.nina.az
InfiniBand ist eine Spezifikation einer Hardwareschnittstelle zur seriellen Hochgeschwindigkeitsubertragung auf kurzen Distanzen mit geringer Latenz Sie wird bevorzugt in Rechenzentren verwendet beispielsweise fur die Verbindungen der Server in Computerclustern untereinander und zur Verbindung zwischen Servern und benachbarten Massenspeichersystemen wie Storage Area Networks SAN Die Schnittstelle ist das Resultat der Vereinigung zweier konkurrierender Systeme Future I O von Compaq IBM und Hewlett Packard und Next Generation I O ngio welches von Intel Microsoft und Sun Microsystems entwickelt wurde Kurze Zeit bevor der neue Name gewahlt wurde war InfiniBand bekannt als System I O Mit Stand 2016 werden von den Firmen Mellanox und Intel Host Bus Adapter fur InfiniBand angeboten Diese Hardwareschnittstellen werden unter anderem von Betriebssystemen wie Solaris verschiedenen Linux Distributionen wie Debian oder Red Hat Enterprise Linux HP UX FreeBSD und VMware vSphere unterstutzt Inhaltsverzeichnis 1 Aufbau 2 Einsatzbereiche 3 Literatur 4 WeblinksAufbau Bearbeiten nbsp InfiniBand CX4 PortsInfiniBand benutzt bidirektionale Punkt zu Punkt Verbindungen zur latenzarmen Datenubertragung mit Verzogerungszeiten unter 2 µs und erreicht theoretische Datenubertragungsraten pro Kanal zwischen 2 5 GBit s SDR und 50 Gbit s HDR in beide Richtungen Bei InfiniBand konnen mehrere Kanale zur Skalierung in einem Kabel transparent gebundelt werden Ublich sind vier Kanale fur Verbindung mit hoheren Anforderungen an den Durchsatz wie bei Switched Fabric sind auch Kanalbundelungen von beispielsweise 12 Kanalen und mehr ublich Normalerweise wird InfiniBand uber Kupferkabel ubertragen wie sie auch fur 10 Gigabit Ethernet verwendet werden Damit sind Ubertragungsstrecken bis zu 15 Meter moglich Mussen langere Strecken uberbruckt werden kann auf faseroptische Medienkonverter zuruckgegriffen werden welche die InfiniBand Kanale auf einzelne Faserpaare umsetzen Hierbei kommen optische Flachbandkabel mit MPO Steckern zum Einsatz Einsatzbereiche Bearbeiten nbsp Dual InfiniBand Host Bus Adapter fur den Einsatz in ServersystemenDie Einsatzgebiete von InfiniBand reichen von Bussystemen bis zu Netzwerkverbindungen Ahnlich wie HyperTransport konnte es sich allerdings nur schwer als Bussystem durchsetzen und wird daher zurzeit meist nur als Cluster Verbindungstechnik benutzt Eine Ausnahme sind hier IBM Mainframe Systeme System z ab der Modellreihe z10 welche z B uber 24 InfiniBand Host Bus Kanale mit jeweils 6 GB s verfugen Der grosse Vorteil von InfiniBand gegenuber gebrauchlichen Techniken wie TCP IP Ethernet liegt dabei in der Minimierung der Latenzzeit durch Auslagern des Protokollstacks in die Netzwerk Hardware Verschiedene Rechenknoten werden dabei durch InfiniBand Kabel und spezielle Switches verbunden als Netzwerkkarten kommen sogenannte HCAs Host Channel Adapter zum Einsatz Es stehen unterschiedliche Verbindungsmodi zur Verfugung u a RDMA Write RDMA Read sowie einfache Send Receive Operationen Um zeitaufwendige Wechsel zwischen Betriebssystem und Benutzerkontext zu vermeiden wie dies beispielsweise bei Sockets der Fall ist werden zunachst die fur die Benutzung vorgesehenen Speicherbereiche bei der Karte registriert Dies ermoglicht der Karte die Ubersetzung von virtuellen Adressen in physische Adressen selbst vorzunehmen Beim Senden von Daten wird durch die Zuordnung mapping verschiedener Kontrollregister des HCAs in den Speicher des Prozesses Doorbell Mechanismus die Sendeoperation ohne Umweg uber den Betriebssystemkern vorgenommen der HCA holt sich die Daten aus dem Hauptspeicher durch Ansteuerung des DMA Controllers Das wahlweise verlassliche oder nicht verlassliche Versenden der so auf dem HCA vorhandenen Daten wird durch den Protokollstack der Karte ubernommen Die Karte verwaltet hierzu eine Ubersetzungstabelle auf die mit dem Benutzer beim Registrieren eines Speicherbereiches zuruckgegebenen Indizes zugegriffen wird Um die Latenzzeiten weiterhin zu minimieren stellt InfiniBand zwei Verbindungsmodi zur Verfugung die Daten in den Hauptspeicher eines anderen Knotens ubertragen oder von dort lesen ohne das Betriebssystem oder den Prozess auf der Gegenseite zu involvieren Diese beiden Operationen werden als RDMA Write RDMA Read Remote DMA bezeichnet Zudem stellt InfiniBand zwei Modi fur die Realisierung von Sperrmechanismen zur Verfugung Atomic Compare amp Swap sowie Atomic Fetch amp Add Mit diesen konnen beispielsweise Semaphore implementiert werden sie finden u a in verteilten Datenbanken Anwendung Im Borsenhandel werden zumeist mittels InfiniBand die Borsencomputer untereinander verbunden deren Anbindung an die Rechner der Handler Hochfrequenzhandler in Co Location erfolgt mittels LWL vorzugsweise Multimode GF als AON Literatur BearbeitenFrank Kyne Hua Bin Chu George Handera Marek Liedel Masaya Nakagawa Iain Neville Christian Zass IBM Redbooks Implementing and Managing InfiniBand Coupling Links on IBM System z Fourth Edition IBM Redbooks Edition 2014 Hans Zima Hrsg High Performance Computing Band 4 Springer Verlag Berlin Heidelberg 2002 ISBN 3 540 43674 X Patrick Crowley Mark A Franklin Hrsg Network Processor Design Issues and Practices Band 2 Morgan Kaufmann Publishers San Francisco 2004 ISBN 0 12 198157 6 Luc Bouge High Performance Computing HiPC 2004 Band 11 Springer Verlag Berlin Heidelberg 2004 ISBN 3 540 24129 9 Weblinks Bearbeiten nbsp Commons InfiniBand Sammlung von Bildern Videos und Audiodateien Homepage der OpenFabrics Alliance englisch Netzwerkstrukturen mit Infiniband abgerufen am 21 Juli 2017 Introduction to InfiniBand abgerufen am 21 Juli 2017 Introduction to High Speed InfiniBand Interconnect abgerufen am 21 Juli 2017 Abgerufen von https de wikipedia org w index php title InfiniBand amp oldid 222420395