 |
Die kleine
Schwester wird erwachsen |
Bis vor kurzem galt
NAS (Network Attached Storage) als Anhängsel von SAN (Storage
Area Network). Innovative Start-ups und die anhebende
Webservice-Welle rücken die Fileserver jetzt aber ins Zentrum
des Speichergeschäfts. |
Erscheinungsdatum: 12.04.2002
Rubrik: Fokus Speichertrends
Autor: Daniel Meierhans
|
Network Attached Storage
(NAS) galt lange Zeit als kleine Schwester von SAN (Storage Area
Networks). Hersteller und Anwender konzentrierten sich auf die
leistungsfähigeren und umfassenderen Speichernetzwerke. Deren
Konzeption und die Lösung von Interoperabilitätsproblemen
schienen alle Ressourcen auf sich zu ziehen. NAS wurde zwar
für spezifische Anwendungen eingesetzt, wenn es um kritische
Daten und Applikationen ging, setzte man aber lieber auf die zwar
wesentlich teureren in Sachen Backup und Recovery ausgereifteren
SAN-Systeme.
Zumal EMC, die Speicherprimadonna der 90er Jahre, der alle
nachzueifern versuchten, die Bedeutung der Fileserver lange bewusst
herunterspielte. EMC wollte so der immer erfolgreicher werdenden
NAS-Pionierin Network Appliance (Netapp) den Wind aus den Segeln
nehmen, weil man selber zu der Zeit noch kein eigenes,
kostengünstiges Produkt für das untere bis mittlere
Preissegment zur Hand hatte. Die Lancierung des im mittleren
Preissegments angesiedelten Clariion IP4700 als "Netapp-Killer"
durch EMC Ende 2000 kam dann aber einem Eingeständnis gleich,
dass NAS mehr als nur ein Nebenschauplatz im Speichergeschäft
ist. Und seither hat sich die kleine Schwester mächtig
herausgeputzt. In Sachen Innovation haben die Fileserverhersteller
in der Zwischenzeit den SAN-Spezialisten den Schneid abgekauft. Und
auch was Skalierbarkeit und Datensicherheit anbelangt, dürften
die jetzt in Aussicht gestellten NAS-Systeme den Anforderungen
für einen unternehmenskritischen Einsatz genügen.
Neben der NAS-Pionierin Netapp und der sich inzwischen auch im
NAS-Umfeld festgesetzten EMC drängen vor allem Start-ups auf
den Markt, die durch ihre Variationen der an ein LAN (Local Area
Network) angehängten File-Services NAS neue Marktnischen
eröffnen wollen. Unternehmen wie Blue Arc, Zambeel, Storigen
Systems und Z-Force haben dem Datendurchsatz sowie der Verwaltung
und Skalierbarkeit der Fileserver in den letzten Monaten
entscheidende Impulse verliehen. Und jetzt scheint die
Webservice-Welle den relativ billigen Speichersystemen
endgültig zur Maturität zu verhelfen.
Perfektes Timing Die kommenden NAS-Systeme können
verteilt, in der Nähe der Anwender installiert und doch
zentral verwaltet werden. Dies bringe NAS in eine ideale
Ausgangspostion, wenn mit dem Aufkommen von Webservices auch die
Menge an nicht-transaktionalen und nicht-relationalen Daten wie
Nutzerpräferenzen und Logdaten wächst, ist Steve
Duplessie, Analyst der Enterprise Storage Group, überzeugt.
Zudem vermehrten sich Windows-NT-Server derzeit wie die Hasen, so
Duplessie. Rund 70 Prozent der auf ihnen abgelegten Daten sind aber
File-orientiert und damit wie gemacht für die File-Server. Das
Timing der Innovationen im NAS-Bereich mit dem Aufkommen von
Webservices ist denn nach Duplessies Ansicht auch perfekt.
Transaktions-basierte Daten und zeitsensitive Anwendungen werden
demgegenüber weiterhin auf SAN-Infrastrukturen laufen, so die
Prophezeiung des Speicher-Augurs.
Damit die NAS-Systeme die ihnen zugedachten Aufgaben
überhaupt erledigen können, müssen die Fileserver
aber erst noch um einige Fähigkeiten ausgebaut werden. Und
genau da setzen Start-ups wie etablierte Hersteller an.
Geswitchte Files
Zumindest auf dem Reissbrett existiert bereits ein Gerät, das
praktisch sämtliche Skalierungsbarrieren im NAS-Bereich
niederreissen würde. "File-Switch" nennt das kalifornische
Start-up Z-Force seine Box, die das Switching auf die File-Ebene
anheben und damit zentral verwaltbare, beliebig erweiterbare
NAS-Cluster möglich machen soll. So soll die relativ einfach
zu implementierende NAS-Technik in Sachen Skalierbarkeit und
Leistung praktisch mit den blockbasierten SAN gleichziehen. Denn
der File-Switch soll laut Z-Force CEO Vladimir Miloushev unter
anderem auch einen Datendurchsatz von mehreren hundert GBit pro
Sekunde möglich machen.
Mit dem Switch addressiert Z-Force einen zentralen bisherigen
Nachteil der NAS-Technik. In herkömmlichen Architekturen ist
je ein einzelner Kopf für die Verwaltung des dahinterliegenden
Speichergeräts zuständig. Erreicht eine solche
Installation ihre Kapazitätsgrenze, muss auch ein
zusätzliches Kontrollgerät vor den neuen
Festplattenkasten gehängt werden. Der Administrator muss jetzt
aber zwei Geräte verwalten, weil er das alte Filesystem nicht
einfach auf die neue Installation erweitern kann. Genau das soll
aber mit dem File-Switch möglich werden. Das Filesystem wird
hier zentral für alle angehängten Speichergeräte
über ein Browser-gestütztes Interface verwaltet, womit
auch ein Ausbau bei laufendem Betrieb möglich wird. Erste
Produkte plant Z-Force 2003 auf den Markt zu bringen.
Gepoolte Billig-Festplatten
Die wie Z-Force in Kalifornien beheimatete Zambeel designt derweil
NAS-Systeme die auf herkömmlichen, billigen
Hardwarekomponenten beruhen, bei denen aber die gepoolten
Speicherkapazitäten von NAS-Clustern virtuell auf eine
Plattform zusammengefasst werden. Die Verwendung günstiger
ATA-Festplatten (AT-Attachment) soll zudem zusätzlich die
Kosten drücken. So sollen trotz einfacher Verwaltung grosse
NAS-Installationen mit SAN-vergleichbaren Leistungsdaten
möglich werden. Zambeel positioniert denn auch ihre Systeme
als direkte SAN-Konkurrenz. Dabei hofft das Unternehmen unter
anderem auch auf den Durchbruch der I-SCSI-Technik (Small Computer
Systems Interface over Internet Protocol). Dank dieser sollen
nämlich die heutigen Leistungsunterschiede zwischen
IP-basierten NAS und Fibre-Channel-basierten SAN um rund 80 Prozent
verringert werden. Die Lancierung der derzeit noch im
Betatest-Stadium steckenden Produkte hat Z-Force auf Mitte Jahr
geplant.
Verteilte Speichersysteme
Wie Zambeel greift auch die im US-Bundesstaat Massachusetts
ansässige Storigen Systems auf der Softwareebene ein. Storigen
hat ein zentrales Verwaltungswerkzeug für verteilte
Speichersysteme entwickelt. Damit soll die anwendernahe
Inhaltsverteilung möglich werden. Durch zentral verwaltete,
virtuell auf ein Bild reduzierte aber geographisch verteilte
NAS-Systeme sollen Inhaltsanbieter oder internationale Unternehmen
im Gegensatz zur zentralistischen Datenhaltung Bandbreite sparen
können. Denn die anwendernahe Platzierung der Fileserver an
den Ecken der Netzwerke verhindert weitgehend das in
zentralistische Architekturen unvermeidliche Entstehen von
Flaschenhälsen.
Zusammen mit den kürzeren Wegen kann so auch der
Datendurchsatz erhöht werden. Dank der Virtualisierung der
dezentralen Speicher verspricht Storigen zudem eine einfache
Verwaltung und ein theoretisch unbegrenztes Ausbaupotenzial ihrer
Systeme. Die proprietäre Service Level Computing Architecture
soll dabei die Leistung des Systems garantieren, indem sie ein
Abarbeiten von Anfragen anhand definierter Prioritäten
ermöglicht. Das Storigen Edge Server genannte System ist aber
nicht nur auf File-Services im engeren Sinn ausgelegt. Die
angepeilten Internet-Inhaltsverteiler sollen damit beispielsweise
auch Streamen können, ohne dafür spezielle Speicher- oder
Netzwerkinfrastrukturen aufbauen zu müssen.
Ein Datentransferspezialist
Wie Z-Force setzt auch Blue Arc auf eine Optimierung der Hardware.
Das kalifornische Start-up hat mit der Silicon Server Architecture
eine speziell auf die Verarbeitung von
Hochgeschwindigkeits-Datentransfers ausgelegtes Computersystem
entwickelt, das grundlegende Unterschiede zum herkömmlichen
Serveraufbau aufweist, aber in gängigen Protokollen
kommuniziert. Um flexibel zu sein, wurde der Server in drei
Subsysteme aufgeteilt. Der Netzwerkteil stellt die
TCP/IP-Funktionalitäten (Transmission Control Protocol/
Internet Protocol) zur Verfügung. Ein zweites Subsystem ist
für den Umgang mit verschiedenen Filesystemen wie NFS (Network
File System), CIFS (Common Internet File System) und FTP (File
Transfer Protocol) zuständig und wandelt die Daten in
Fibre-Channel-Blöcke um, als die sie auf den Festplatten
abgelegt werden. Das Speicher-Subsystem schlussendlich kontrolliert
die angehängten Festplatten. Gemäss Blue Arc
unterstützen die derzeit erhältlichen Systeme, die sich
wie ein herkömmlicher Unix- oder Intelserver in bestehende
Netzwerke integrieren lassen, die Speicherung von bis zu 250 TByte
an Daten.
Die einzelnen Subsysteme sind in der Silicon Server Architecture
durch je zwei getrennte, 1-GBit-pro-Sekunde-schnelle Busse
verbunden: einen für den Up- und einen für den Download.
So wird verhindert, dass Datenverkehr in der einen Richtung den
entgegenkommenden Datenstrom ausbremst. Für die einzelnen
Datenverarbeitungsschritte enthält die Box an ihre jeweiligen
Aufgaben anpassbare FPGA-Chips (Field Programmable Gate Arrays).
Als weiteren Vorteil ihres Geräts führt Blue Arc die
Verteilung der Arbeitsspeicher, wie dies auch in Netzwerk-Switches
üblich ist, an. So sind Puffer und Kontrollspeicher ebenso
voneinander getrennt, wie die Zwischenspeicher für die
hineinkommenden und die herausgehenden Daten.
Am unteren und oberen Ende
Aber nicht nur Start-ups, auch alteingesessene
Speicherspezialistinnen setzen immer mehr auf NAS-Techniken. So hat
die mit ihren externen ZIP-Laufwerken bekannt gewordene Iomega vor
kurzem ein stapelbares low-end NAS-Appliances auf den Markt
geworfen. Das auf Einfachheit und Preisgünstigkeit getrimmte
Gerät ist für kleine und mittelgrosse Unternehmen
gedacht, die keine eigentliche Speicherinfrastruktur aufbauen
wollen.
Die NAS-Pionierin Netapp hat am anderen Ende der Skala mit dem
Nearstore R100 ein auf das Backup ausgerichtetes Festplattensystem
lanciert, dass bis zu 96 TByte fasst. Vorbei sind also die Zeiten,
als die Fileserver schon bei Datenmengen unter einem TByte nicht
mehr ausreichten. Dazu kommen laufende Verbesserungen auf
Softwareebene. Datenrecovery, Spiegelung und Backup sind jetzt auch
im NAS-Umfeld möglich.
2003 soll die Post abgehen
Analysten erwarten in diesem Jahr noch weitere Innovationen im
NAS-Sektor und auch die Anzahl der Installation soll in einer
ansteigenden Kurve weiter wachsen. Wirklich losgehen soll der
NAS-Boom aber 2003, wenn die jetzt teilweise erst skizzierten
Systeme ihre Marktreife bewiesen haben. Dann werden die
SAN-Spezialistinnen voraussichtlich wieder in ihr
Kerngeschäft, die Speicherung von transaktionalen und
relationalen Daten, zurückgedrängt werden.
Für Mandy Andress von der amerikanischen Fachzeitschrift
"Infoworld" ist ihnen aber auch diese Nische auf Dauer nicht
sicher. Wenn die Entwicklung so weiter geht, dürfte demnach
NAS schon bald auch für den unternehmenskritischen Einsatz und
für Hochvolumen-Transaktionen fit sein. Zumal die derzeitige
Sparwut in den IT-Abteilungen der Unternehmen den relativ
billigeren NAS-Systemen zugute kommt. Andrerseits dürfte die
noch weitgehend fehlende Zusammenarbeit zwischen Geräten von
verschiedenen Herstellern die NAS-Ausbreitung behindern. Gefordert
sind hier die Hersteller. Sie müssen Schnittstellen zur
Managment-Software anderer zur Verfügung stellen, wie das im
SAN-Umfeld schon länger gang und gäbe ist.
|
|