Die kleine Schwester wird erwachsen
Bis vor kurzem galt NAS (Network Attached Storage) als Anhängsel von SAN (Storage Area Network). Innovative Start-ups und die anhebende Webservice-Welle rücken die Fileserver jetzt aber ins Zentrum des Speichergeschäfts.

Erscheinungsdatum: 12.04.2002
Rubrik: Fokus Speichertrends
Autor: Daniel Meierhans

Network Attached Storage (NAS) galt lange Zeit als kleine Schwester von SAN (Storage Area Networks). Hersteller und Anwender konzentrierten sich auf die leistungsfähigeren und umfassenderen Speichernetzwerke. Deren Konzeption und die Lösung von Interoperabilitätsproblemen schienen alle Ressourcen auf sich zu ziehen. NAS wurde zwar für spezifische Anwendungen eingesetzt, wenn es um kritische Daten und Applikationen ging, setzte man aber lieber auf die zwar wesentlich teureren in Sachen Backup und Recovery ausgereifteren SAN-Systeme.

Zumal EMC, die Speicherprimadonna der 90er Jahre, der alle nachzueifern versuchten, die Bedeutung der Fileserver lange bewusst herunterspielte. EMC wollte so der immer erfolgreicher werdenden NAS-Pionierin Network Appliance (Netapp) den Wind aus den Segeln nehmen, weil man selber zu der Zeit noch kein eigenes, kostengünstiges Produkt für das untere bis mittlere Preissegment zur Hand hatte. Die Lancierung des im mittleren Preissegments angesiedelten Clariion IP4700 als "Netapp-Killer" durch EMC Ende 2000 kam dann aber einem Eingeständnis gleich, dass NAS mehr als nur ein Nebenschauplatz im Speichergeschäft ist. Und seither hat sich die kleine Schwester mächtig herausgeputzt. In Sachen Innovation haben die Fileserverhersteller in der Zwischenzeit den SAN-Spezialisten den Schneid abgekauft. Und auch was Skalierbarkeit und Datensicherheit anbelangt, dürften die jetzt in Aussicht gestellten NAS-Systeme den Anforderungen für einen unternehmenskritischen Einsatz genügen.

Neben der NAS-Pionierin Netapp und der sich inzwischen auch im NAS-Umfeld festgesetzten EMC drängen vor allem Start-ups auf den Markt, die durch ihre Variationen der an ein LAN (Local Area Network) angehängten File-Services NAS neue Marktnischen eröffnen wollen. Unternehmen wie Blue Arc, Zambeel, Storigen Systems und Z-Force haben dem Datendurchsatz sowie der Verwaltung und Skalierbarkeit der Fileserver in den letzten Monaten entscheidende Impulse verliehen. Und jetzt scheint die Webservice-Welle den relativ billigen Speichersystemen endgültig zur Maturität zu verhelfen.

Perfektes Timing Die kommenden NAS-Systeme können verteilt, in der Nähe der Anwender installiert und doch zentral verwaltet werden. Dies bringe NAS in eine ideale Ausgangspostion, wenn mit dem Aufkommen von Webservices auch die Menge an nicht-transaktionalen und nicht-relationalen Daten wie Nutzerpräferenzen und Logdaten wächst, ist Steve Duplessie, Analyst der Enterprise Storage Group, überzeugt. Zudem vermehrten sich Windows-NT-Server derzeit wie die Hasen, so Duplessie. Rund 70 Prozent der auf ihnen abgelegten Daten sind aber File-orientiert und damit wie gemacht für die File-Server. Das Timing der Innovationen im NAS-Bereich mit dem Aufkommen von Webservices ist denn nach Duplessies Ansicht auch perfekt. Transaktions-basierte Daten und zeitsensitive Anwendungen werden demgegenüber weiterhin auf SAN-Infrastrukturen laufen, so die Prophezeiung des Speicher-Augurs.

Damit die NAS-Systeme die ihnen zugedachten Aufgaben überhaupt erledigen können, müssen die Fileserver aber erst noch um einige Fähigkeiten ausgebaut werden. Und genau da setzen Start-ups wie etablierte Hersteller an.

Geswitchte Files
Zumindest auf dem Reissbrett existiert bereits ein Gerät, das praktisch sämtliche Skalierungsbarrieren im NAS-Bereich niederreissen würde. "File-Switch" nennt das kalifornische Start-up Z-Force seine Box, die das Switching auf die File-Ebene anheben und damit zentral verwaltbare, beliebig erweiterbare NAS-Cluster möglich machen soll. So soll die relativ einfach zu implementierende NAS-Technik in Sachen Skalierbarkeit und Leistung praktisch mit den blockbasierten SAN gleichziehen. Denn der File-Switch soll laut Z-Force CEO Vladimir Miloushev unter anderem auch einen Datendurchsatz von mehreren hundert GBit pro Sekunde möglich machen.

Mit dem Switch addressiert Z-Force einen zentralen bisherigen Nachteil der NAS-Technik. In herkömmlichen Architekturen ist je ein einzelner Kopf für die Verwaltung des dahinterliegenden Speichergeräts zuständig. Erreicht eine solche Installation ihre Kapazitätsgrenze, muss auch ein zusätzliches Kontrollgerät vor den neuen Festplattenkasten gehängt werden. Der Administrator muss jetzt aber zwei Geräte verwalten, weil er das alte Filesystem nicht einfach auf die neue Installation erweitern kann. Genau das soll aber mit dem File-Switch möglich werden. Das Filesystem wird hier zentral für alle angehängten Speichergeräte über ein Browser-gestütztes Interface verwaltet, womit auch ein Ausbau bei laufendem Betrieb möglich wird. Erste Produkte plant Z-Force 2003 auf den Markt zu bringen.

Gepoolte Billig-Festplatten
Die wie Z-Force in Kalifornien beheimatete Zambeel designt derweil NAS-Systeme die auf herkömmlichen, billigen Hardwarekomponenten beruhen, bei denen aber die gepoolten Speicherkapazitäten von NAS-Clustern virtuell auf eine Plattform zusammengefasst werden. Die Verwendung günstiger ATA-Festplatten (AT-Attachment) soll zudem zusätzlich die Kosten drücken. So sollen trotz einfacher Verwaltung grosse NAS-Installationen mit SAN-vergleichbaren Leistungsdaten möglich werden. Zambeel positioniert denn auch ihre Systeme als direkte SAN-Konkurrenz. Dabei hofft das Unternehmen unter anderem auch auf den Durchbruch der I-SCSI-Technik (Small Computer Systems Interface over Internet Protocol). Dank dieser sollen nämlich die heutigen Leistungsunterschiede zwischen IP-basierten NAS und Fibre-Channel-basierten SAN um rund 80 Prozent verringert werden. Die Lancierung der derzeit noch im Betatest-Stadium steckenden Produkte hat Z-Force auf Mitte Jahr geplant.

Verteilte Speichersysteme
Wie Zambeel greift auch die im US-Bundesstaat Massachusetts ansässige Storigen Systems auf der Softwareebene ein. Storigen hat ein zentrales Verwaltungswerkzeug für verteilte Speichersysteme entwickelt. Damit soll die anwendernahe Inhaltsverteilung möglich werden. Durch zentral verwaltete, virtuell auf ein Bild reduzierte aber geographisch verteilte NAS-Systeme sollen Inhaltsanbieter oder internationale Unternehmen im Gegensatz zur zentralistischen Datenhaltung Bandbreite sparen können. Denn die anwendernahe Platzierung der Fileserver an den Ecken der Netzwerke verhindert weitgehend das in zentralistische Architekturen unvermeidliche Entstehen von Flaschenhälsen.

Zusammen mit den kürzeren Wegen kann so auch der Datendurchsatz erhöht werden. Dank der Virtualisierung der dezentralen Speicher verspricht Storigen zudem eine einfache Verwaltung und ein theoretisch unbegrenztes Ausbaupotenzial ihrer Systeme. Die proprietäre Service Level Computing Architecture soll dabei die Leistung des Systems garantieren, indem sie ein Abarbeiten von Anfragen anhand definierter Prioritäten ermöglicht. Das Storigen Edge Server genannte System ist aber nicht nur auf File-Services im engeren Sinn ausgelegt. Die angepeilten Internet-Inhaltsverteiler sollen damit beispielsweise auch Streamen können, ohne dafür spezielle Speicher- oder Netzwerkinfrastrukturen aufbauen zu müssen.

Ein Datentransferspezialist
Wie Z-Force setzt auch Blue Arc auf eine Optimierung der Hardware. Das kalifornische Start-up hat mit der Silicon Server Architecture eine speziell auf die Verarbeitung von Hochgeschwindigkeits-Datentransfers ausgelegtes Computersystem entwickelt, das grundlegende Unterschiede zum herkömmlichen Serveraufbau aufweist, aber in gängigen Protokollen kommuniziert. Um flexibel zu sein, wurde der Server in drei Subsysteme aufgeteilt. Der Netzwerkteil stellt die TCP/IP-Funktionalitäten (Transmission Control Protocol/ Internet Protocol) zur Verfügung. Ein zweites Subsystem ist für den Umgang mit verschiedenen Filesystemen wie NFS (Network File System), CIFS (Common Internet File System) und FTP (File Transfer Protocol) zuständig und wandelt die Daten in Fibre-Channel-Blöcke um, als die sie auf den Festplatten abgelegt werden. Das Speicher-Subsystem schlussendlich kontrolliert die angehängten Festplatten. Gemäss Blue Arc unterstützen die derzeit erhältlichen Systeme, die sich wie ein herkömmlicher Unix- oder Intelserver in bestehende Netzwerke integrieren lassen, die Speicherung von bis zu 250 TByte an Daten.

Die einzelnen Subsysteme sind in der Silicon Server Architecture durch je zwei getrennte, 1-GBit-pro-Sekunde-schnelle Busse verbunden: einen für den Up- und einen für den Download. So wird verhindert, dass Datenverkehr in der einen Richtung den entgegenkommenden Datenstrom ausbremst. Für die einzelnen Datenverarbeitungsschritte enthält die Box an ihre jeweiligen Aufgaben anpassbare FPGA-Chips (Field Programmable Gate Arrays). Als weiteren Vorteil ihres Geräts führt Blue Arc die Verteilung der Arbeitsspeicher, wie dies auch in Netzwerk-Switches üblich ist, an. So sind Puffer und Kontrollspeicher ebenso voneinander getrennt, wie die Zwischenspeicher für die hineinkommenden und die herausgehenden Daten.

Am unteren und oberen Ende
Aber nicht nur Start-ups, auch alteingesessene Speicherspezialistinnen setzen immer mehr auf NAS-Techniken. So hat die mit ihren externen ZIP-Laufwerken bekannt gewordene Iomega vor kurzem ein stapelbares low-end NAS-Appliances auf den Markt geworfen. Das auf Einfachheit und Preisgünstigkeit getrimmte Gerät ist für kleine und mittelgrosse Unternehmen gedacht, die keine eigentliche Speicherinfrastruktur aufbauen wollen.

Die NAS-Pionierin Netapp hat am anderen Ende der Skala mit dem Nearstore R100 ein auf das Backup ausgerichtetes Festplattensystem lanciert, dass bis zu 96 TByte fasst. Vorbei sind also die Zeiten, als die Fileserver schon bei Datenmengen unter einem TByte nicht mehr ausreichten. Dazu kommen laufende Verbesserungen auf Softwareebene. Datenrecovery, Spiegelung und Backup sind jetzt auch im NAS-Umfeld möglich.

2003 soll die Post abgehen
Analysten erwarten in diesem Jahr noch weitere Innovationen im NAS-Sektor und auch die Anzahl der Installation soll in einer ansteigenden Kurve weiter wachsen. Wirklich losgehen soll der NAS-Boom aber 2003, wenn die jetzt teilweise erst skizzierten Systeme ihre Marktreife bewiesen haben. Dann werden die SAN-Spezialistinnen voraussichtlich wieder in ihr Kerngeschäft, die Speicherung von transaktionalen und relationalen Daten, zurückgedrängt werden.

Für Mandy Andress von der amerikanischen Fachzeitschrift "Infoworld" ist ihnen aber auch diese Nische auf Dauer nicht sicher. Wenn die Entwicklung so weiter geht, dürfte demnach NAS schon bald auch für den unternehmenskritischen Einsatz und für Hochvolumen-Transaktionen fit sein. Zumal die derzeitige Sparwut in den IT-Abteilungen der Unternehmen den relativ billigeren NAS-Systemen zugute kommt. Andrerseits dürfte die noch weitgehend fehlende Zusammenarbeit zwischen Geräten von verschiedenen Herstellern die NAS-Ausbreitung behindern. Gefordert sind hier die Hersteller. Sie müssen Schnittstellen zur Managment-Software anderer zur Verfügung stellen, wie das im SAN-Umfeld schon länger gang und gäbe ist.