Home
Kontakt
Unternehmen
Referenzen
Themen
Events
Pressezentrum
Pressetexte
Aktuelle Mitteilungen
INOSOFT Garibaldi
Pressespiegel
Pressearchiv
Journalistenservice
Bildmaterial
Bilder
Logos
INOSOFT AG
Daten & Fakten
Ansprechpartner
deutsch english
Home > Pressezentrum > Pressespiegel
Pressespiegel

COMPUTERWOCHE, 23/2003
Komplexe Windows Desktops sind managebar

Standardisierung statt Softwareverteilung senkt die TCO
Die Zahl der Windows-PCs geht in vielen Unternehmen in die Tausende. Für die IT stellen diese Clients eine enorme Herausforderung in Sachen Softwareverteilung und Verwaltung dar. Mit speziellen Tools sind Windows-Umgebungen mittlerweile beherrschbar, doch sollten dabei auch strategische Aspekte berücksichtigt werden.

Seit je her stand das PC-Konzept eigentlich im Widerspruch zu den IT-Bedürfnissen großer Unternehmen: Unterschiedliche Hardware-Konfigurationen, individuelle Software-Installationen sowie persönliche Desktop-Einstellungen, wie sie für Windows-Maschinen typisch sind, erfordern einen enormen administrativen Einsatz. Insbesondere in großen Unternehmen mit mehreren 10 000 weltweit verteilten Windows-Clients ist das Management von Clients und die Verteilung der Software mit aufwändigen und kostspieligen IT-Projekten verbunden. Verschärft hat sich diese Situation durch die ständig komplexer werdende Windows-Technik.

Nach und nach hat Microsoft offenbar diese Lücken zur Kenntnis genommen und Lösungen bereitgestellt. So war es unter Windows NT 4.0 bereits möglich, vom Server aus Einstellungen für die im Netz angeschlossenen Benutzer und Computer vorzugeben. Windows 2000 bringt von Haus aus eine Vielzahl von Techniken für das Client-Management mit, so etwa eine Richtlinen-basierende Kontrolle über Benutzereinstellungen, die Verteilung von Anwendungen oder selbst heilende Installationen auf Basis der MSI-Technologie. Doch bis heute existieren Lücken: So kann beispielsweise Windows 2000 Server keine termingesteuerte Softwareinstallation am Client anstoßen, ebenso ist es nicht möglich, eine Verteilung rückgängig zu machen und den Client in den exakten Ursprungszustand zurückzusetzen. Nach Einschätzung der Meta Group reichen die gebotenen Features von Windows 2000 zwar durchaus für kleinere und mittlere Firmen aus, große Unternehmen kommen jedoch nicht um Management-Tool von Drittanbietern herum. Meta spricht dabei bezeichnenderweise von einer „symbiotischen Beziehung“ zwischen dem Windows-Betriebssystem und derartigen Management-Tools.

PC-Unzulänglichkeiten ausbügeln
Eine Reihe von Anbietern buhlt in diesem Markt um die Anwender. Typisch ist die Vielzahl an relativ kleinen Spezialanbietern wie etwa On Technology, Altiris, Netsupport, Matrix 42 oder Inosoft. Bisher ist es den großen Anbietern von Management-Suiten wie Novell, Computer Associates oder IBM/Tivoli nicht gelungen, in mittlerweile recht großen Client-Markt richtig Fuß zu fassen. Laut Meta Group wiesen diese Unternehmen bisher große Schwächen in den Bereichen Funktionalität, Innovation, Plattform-Unterstützung sowie Support auf.

Das effiziente Management von Windows-Clients ist diffiziler, als sich das offenbar die Spezialisten aus dem Großrechner- und Serverbereich bisher vorgestellt hatten. So zählt beispielsweise zu den Grundvoraussetzungen einer erfolgreichen Windows-Installation, dass keine Versionskonflikte bei DLL-Dateien bestehen und in der Registrierdatenbank die richtigen Einträge stehen. Gute Verteilungs-Tools zeichnen sich dadurch aus, dass Sie jeden Installationsschritt überwachen und sauber rückgängig machen, überflüssige Dateien identifizieren und ältere Versionen korrekt aktualisieren können. Hinzu kommen Funktionen für die Verwaltung von Softwarepaketen sowie die Verteilung über lokale Netze oder auch auf weltweit verteilte Standorte. Entscheidend ist dabei stets ein fundiertes Wissen über die sich permanent ändernden Windows-Interna - nur so kann ein Tool etwa letale Fehleingriffe bei Installation oder Deinstallation vermeiden.

Der wichtigste Prozess beim automatisierten Management von PC-Clients ist die Installation des Betriebssystem sowie der benötigten Anwendungen über das Netz. Als zentrale Technik hat sich dabei sehr früh das Klonen (Imaging) etabliert.

Dabei wird von einem fertig konfigurierten PC mit speziellen Tools wie Symantec Ghost oder Drive Image ein Eins-zu-Eins-Abbild der Festplatte gezogen. Auf jeden weiteren PC wird anschließend dieses Image kopiert, der Administrator erspart sich das langwierige Einspielen der Softwarekomponenten von vielen CDs. Das Verfahren ist zwar schnell, hat aber gravierende Nachteile: Ändern sich etwa Hardwarekomponenten oder einzelne Anwendungen der Ziel-PCs, muss wieder ein neues Master-Image erstellt werden. Die Zahl der unterschiedlichen Images wird schnell unüberschaubar und kaum mehr verwaltbar. Mittlerweile existieren modernisierte Varianten: Mit dem von Microsoft kostenlos zur Verfügung gestellten Programm Sysprep etwa lassen sich nach der Windows-Installation und vor dem eigentlichen Imaging alle Hardware-spezifischen Komponenten entfernen, um so einen Massen-Rollout zu ermöglichen.

Eine anders, gebräuchliches Verfahren ist die Snapshot- oder Deltatechnik. Ein Hintergrund-Dienst überwacht dabei den Ablauf einer Softwareinstallation. Danach wird der gesamte Systemzustand vor der Installation (Dateien inklusive Registrierdatenbank von Windows) mit dem Zustand nach der Installation verglichen. Aus der Differenz bildet das Tool ein Skript- oder Programmgesteuertes Paket, das die betreffende Anwendung später zentral gesteuert auf Clients ausbringt. Als problematisch erweisen sich dabei unterschiedliche Gegebenheiten auf Zielplattformen wie Windows 98, NT 4 oder 2000 - zum Beispiel abweichende Registy-Zweige. Manche Hersteller haben dieses Verfahren modifiziert, um flexibel auf unterschiedlichste Client-Gegebenheiten zu reagieren.

Eine weitere Variante ist die Verteilung von Software mittels eigens entwickelter Installationsskripte, wie sie etwa On Technology anbietet. Hierbei werden die von Softwareherstellern gelieferten Installationsroutinen modifiziert, um eine zentral gesteuerte Verteilung auf hunderte oder tausende Rechner in einem Durchgang zu ermöglichen. Script-Verfahren haben in Sachen Flexibilität und Steuerung der Vorgänge klare Vorteile gegenüber den anderen Verteilungsarten. Allerdings entsteht dabei eine enorme Netzlast, im Vergleich zum Image-Verfahren ist die Ausbringung eines fertig konfigurierten Client-Systems deutlich zeitaufwändiger.

Verteilung ohne Standardisierung kann kosten
Neben den rein technischen Aspekten gewinnen in letzter Zeit Fragen nach Richtlinien und Prozessen beim Desktop-Management an Bedeutung, das Thema Standardisierung rückt - vor allem unter Kostengesichtspunkten - in den Vordergrund. Die Analysten von Gartner sind beispielsweise zu dem Ergebnis gekommen, dass der Einsatz von reinen Verteilungstools keine unmittelbaren Kostenersparnisse bringt. Wird die Softwareverteilung hingegen kombiniert mit der Standardisierung von Clients, kann die TCO um bis zu 35 Prozent reduziert werden. Noch beschäftigen sich allerdings wenige Anwender mit dem Thema Standardisierung, wie Zahlen der Giga Information Group belegen: So hätten 50 bis 60 Prozent der Anwenderunternehmen keine durchgängigen Richtlinien für die Softwareverteilung, entsprechend gebe es dort Probleme beim der Verteilung neuer Anwendungspakete oder Software-Patches. Nur 20 bis 25 Prozent der Unternehmen erzielen eine nahezu fehlerfreie Verteilung von Software mit einer Erfolgsquote von 95 Prozent.

Damit rückt ein Hauptproblem bei der Softwareverteilung in den Vordergrund, der Aufwändigen Verwaltung von Client-Images aber auch von Konfigurationen für verschiedene Benutzer(-Gruppen) und Geschäftsbereiche. Selbst wenn viele Unternehmen über klare Richtlinien für Konfigurationen und eine festgelegte Zahl von verschiedenen Client-Images verfügen, scheitern solche Konzepte nach den Erfahrungen der Giga-Analysten oft an der Wartung und Weiterentwicklung der Images. Die Folge sind dutzende Hard- und Softwarekonfigurationen, die kaum mehr zu kontrollieren sind.

Standardisierung ist alles andere als selbstverständlich
Mittlerweile zeichnet sich auch bei den Toolherstellern ein Trend ab, den Standardisierungsaspekt in die Verwaltungs- und Verteilungs-Software zu integrieren.

Ein von seiner Architektur auf Standardisierung angelegtes Werkzeug ist Garibaldi 2.0 von Inosoft aus Marburg. Kernprinzip von Garibaldi ist die dynamische Verwaltung der bisher starren Images durch ein Aufsplitten in Image-Komponenten. Den Rahmen dafür geben eine oder mehrere Standard-Clientkonfigurationen vor, die für das gesamte Unternehmen definiert werden. Zunächst wird ein klassisches Image des Standard-PCs erzeugt. Änderungen oder Zusätze- etwa für notwendige Treiber- oder Software-Updates - werden von der Verwaltungskomponente als Module bereitgestellt und überwacht. Wurden solchen Modifikationen durchführt, gibt es weiterhin lediglich ein - wenn auch aktualisiertes - Standard-Image für das gesamte Unternehmen. Garibaldi kann sowohl als Standardisierungs-Erweiterung neben marktüblichen Verteilungstools als auch als vollständige Lösung für Verteilung und Standardisierung eingesetzt werden. Der Vorteil des Garibaldi-Konzepts liegt im Zwang zum Standard: Während bei gängigen Tools stets die Möglichkeit besteht, Softwarepakete in individueller Zusammensetzung auf beliebige Clients zu verteilen, verwehrt das Inosoft-Tool dem Administrator Abweichungen vom vordefinierten Standard. Nicht alltäglich ist auch die Möglichkeit, einen Unternehmenskonformen PC ohne Netzanschluss mit einer vorgefertigten CD aufzusetzen.

Bleibt für Firmen noch die Frage, wie viele - oder besser, wie wenig - Standardkonfigurationen möglich und sinnvoll sind. Minimalismus zahlt sich hier in jedem Fall aus. So ist es etwa Aventis Pharma gelungen, seine weltweit 50 000 PCs mit Hilfe von Garibaldi auf einen einzigen Standard mit 22 regionalen Ableitungen zu reduzieren. In anderen Unternehmen zeigte man bisher deutlich weniger Bereitschaft zur Disziplin: Analysten berichten von Firmen mit hundert verwalteten „Standard“-Konfigurationen. Vieles hängt natürlich von der jeweiligen Firmenphilosophie ab, als Durchschnittslösung empfiehlt Giga eine Standardisierung auf drei bis fünf Client-Varianten. Als Grundlage für die Festlegung sollten dabei zwei Kategorien berücksichtigt werden: Erstens die Bedürfnisse der Anwender, zweitens die der Geschäftsbereiche. Als vier typische Anwenderkategorien werden vorgeschlagen: Single-Task (einzelne Aufgabe), Aufgabenorientiert (klar definierter Set an Aufgaben), Knowledge (viele Aufgaben, viele Anwendungen) sowie Power-User (spezielle PCs, spezielle Anwendungen). In vergleichbarer Weise sollte die Reduzierung der Client-Konfigurationen auch auf Basis einer Analyse der Bedürfnisse einzelner Geschäftsbereiche angestrebt werden.

Weitere Artikel ...

©2004 INOSOFT AG. Alle Rechte vorbehalten. Datensicherheit. Nach oben
Best viewed with MS Internet Explorer 4.0 or higher, 1024x768 px