Genau so sieht es aus :-) Und deshalb zunächst allen Besuchern ein frohes und gesundes neues Jahr 2014. Zumindest inhaltlich wird sich dieses Jahr hier wieder einiges tun. Nach einer kreativen Schaffenspause bedingt vor allem durch den Wechsel des Arbeisplatzes werde ich dieses Jahr den Blog wiederbeleben.
Dabei wird es inhaltlich natürlich um das Thema Cloud-Computing gehen, genauso, wie der Name des Blogs es vermuten lässt. In den letzten 1,5 Jahren habe ich mich als Cloud-Architekt bei der Firma Citrix Systems vor allem mit den hauseigenen Cloud-Produkten CloudPlatform und CloudPortal Business Manager beschäftigt. Mittlerweile bin ich als Solution Engineer Cloud Architekturen bei dem Systemhaus Fritz & Macziol angestellt. In dieser Funktion kümmere ich mich neben den genannten Cloud-Produkten von Citrix auch um die Cloud-Produkte der Firmen vmware und Micrsoft. Warum diese breite Aufstellung und keine Spezialisierung?
Nun, gerade im europäischen Markt ist die Skepsis gegenüber den großen
Public-Cloud-Anbietern aus Übersee weiterhin vorhanden - Prism sei Dank
-, so dass das Hybrid- bzw. Private-Cloud-Modell stärker in den
Vordergrund rückt. Und jeder der genannten Hersteller hat hierfür Lösungen parat. Dazu kommt der Wunsch vieler Unternehmen, vorhandene
virtuelle Infrastrukturen in Cloud-Infrastrukturen zu überführen, die oftmals auf einem Hypervisor der genannten Hersteller basieren. Die Wahlmöglichkeiten sind also vielfältig. Wie aber gehe ich diese Herausforderung an? Welche Lösung ist die beste bzw. sinnvollste? Was geht, was geht nicht? Was machen andere? Welche Ziele kann ich schnell erreichen, welche erfordern mehr Aufwand? Einen oder mehrere Hypervisor?
Es gibt soooo viele Fragen, die im Vorfeld einer Einführung völlig hersteller-neutral beantwortet werden können, die zunächst in keinem direkten Zusammenhang mit der technischen Lösung stehen. Oder wie es meine amerikanischen Ex-Kollegen bei Citrix kurz und prägnant beschrieben haben: "Usecases first!" . Das bedeutet nichts anderes, als das man sich vor Einführung einer Cloud-Lösung genaue Gedanken über das "Wieso" machen sollte, erst danach folgt das "Wie".
Und genau dafür bin ich unter anderem da ;-). Die Frage nach dem Wieso zu beantworten. Auch das wird ein Fokus dieses Blogs sein.
Ich freue ich mich sehr auf diese Herausforderung, denn meines Erachtens gibt es im Cloud-Computing kein "One-Size-Fits-All". Und genau das macht meine Aufgabe in 2014 (und hoffentlich auch danach) so spannend.
Einen guten Start und alles Gute für 2014.
Jörn
Xenified - Virtualization, Cloud & More
## DISCONTINUED ## Visit http://cloudfected.com for updates ##
Montag, 6. Januar 2014
Mittwoch, 25. April 2012
Das C-L-O-U-D Schichtenmodell und die Layer 1 + 2: Storage und Netzwerk-Virtualisierung (Zweitveröffentlichung)...
Hi, mal wieder ein Update, was nicht heisst, dass ich faul war: Das Bloggen konzentriert sich aktuell aber mehr auf den Blog meines Arbeitgebers, so dass ich meine eigene Plattform hier in letzter Zeit leider etwas vernachlässigen musste. Dieser Blog-Post ist deshalb auch die Kopie meiner drei letzten Posts aus dem CloudMACHER-Blog. Happy reading... Und wer mit mir persönlich über den Kram, den ich hier veröffentliche, diskutieren will, der kann das z.B. im Rahmen des CloudMACHER-Events (kostenfrei) tun: Anmeldung CloudMACHER Hannover
Verdeutlicht wird dies durch das nachfolgende C-L-O-U-D-Schichtenmodell:
Das Modell zeigt neben den verschiedenen Ebenen einer Cloud-Infrastruktur auch die Abhängigkeiten zwischen eben diesen. Eine zusätzliche Gruppierung der Ebenen zeigt auf, dass diese typischerweise übergreifend/zusammenhängend betrachtet werden sollten. Bei genauerer Betrachtung des Modells, lassen sich aus meiner Sicht die „goldenen“ Regeln für den Aufbau einer C-L-O-U-D-Infrastruktur ableiten:
Ich hoffe, dass ich mit dem C-L-O-U-D-Schichtenmodell etwas Licht ins Dunkel des Cloud Computing bringen kann. In zukünftigen Blog-Posts werde ich auf die einzelnen Ebenen des Schichtenmodells näher eingehen, verfügbare Produkte bewerten/gegenüberstellen und vielleicht auch schon über erste Praxiserfahrungen berichten können.
Storage-Hersteller und Systeme gibt es mittlerweile wie Sand am Meer und erfahrungsgemäß hat jeder Kunde in diesem Umfeld eine eigene Präferenz. Neben den klassischen Hardware-Anbietern bzw. System-Lieferanten gibt es inzwischen auch immer mehr auf Software basierende Lösungen, die vorhandene Storage-Systeme um zusätzliche Funktionen erweitern. Welche dieser verschiedenen Lösungen, bezogen auf den Aufbau einer Cloud-Infrastruktur, sinnvoll einzusetzen sind und welche Funktionen in den Storage-Systemen für Cloud-Computing wirkliche Relevanz haben, möchte ich mit diesem Blog-Post aufzeigen.
Bevor ich mich jedoch intensiver mit dem Thema des Storage Virtualization Layer beschäftige, ist es aus meiner Sicht erforderlich, sich noch einmal die typischen Eigenschaften einer Cloud-Infrastruktur ins Gedächtnis zu rufen:
Weitere Kriterien für das Storage-System einer Cloud-Infrastruktur sind (je nach Einsatz-Zweck):
Exemplarisch möchte ich an dieser Stelle auf zwei Lösungen etwas genauer eingehen, die unterschiedlicher nicht sein könnten, die aber beide im Kontext von Cloud-Computing bereits sehr erfolgreich eingesetzt werden. Einerseits sind dies die Systeme der Firma NetApp, die bereits seit Jahren den Ansatz größtmöglicher Flexibilität, z.B. hinsichtlich der Protokoll-Unterstützung, verfolgen. Andererseits ist es das Openstack Object Storage (Codename Swift), das Software-basierende Storage-System des Openstack Open-Source-Projektes.
NetApp bietet in seinen Storage-Systemen seit Jahren die Möglichkeit der gleichzeitigen Nutzung unterschiedlicher Storage-Protokolle. Vor einiger Zeit wurde dieser Ansatz um die Möglichkeiten des Multi-Tierings sowie die Nutzung sogenannter Unified-Adpater in den NetApp-Management-Systemen erweitert. Diese bieten die Fähigkeit, mehrere Storage-Protokolle gleichzeitig über einen physikalischen Adapter zur Verfügung zu stellen, was das Management und das Systemdesign des Storage-Systems weiter vereinfacht, ohne die Flexibilität zu beeinträchtigen. Darüber hinaus bietet NetApp integrierte Möglichkeiten zur Isolation von Mandanten (vFiler) und optimiert den Speicherbedarf, z.B. durch die Bildung von Speicherpools (FlexVols) und integrierte Deduplikations-Technologien.
Die NetApp-Systeme bestehen aus ideal aufeinander abgestimmter Hard- und Software. Besonders interessant für das Cloud-Umfeld: NetApp bringt seine Storage-Kompetenz in den Flexpod ein, ein stark standardisiertes System aus NetApp-Storage-Systemen, Cisco-Servern, Netzwerk-Komponenten und VMware vSphere: Sozusagen ein fertiger
C-L-O-U-D-Delivery-Block, der von den beteiligten Unternehmen gemeinsam zu attraktiven Preisen vermarktet und auch supported wird.
Einen gänzlich anderen Ansatz verfolgt das Software-basierte Openstack Object Storage „Swift“, welches aus Standard-Servern ein geclustertes und somit hochverfügbares und theoretisch unendlich skalierbares Cloud-Storage erzeugt. Fällt ein Cluster-Knoten aus, kann dieser einfach durch einen neuen Knoten ersetzt werden. Entsprechende Replikations-Mechanismen sind in „Swift“ standardmäßig enthalten.
Objekte werden je nach Design automatisch an mehreren Stellen gespeichert und sind somit redundant enthalten. Damit verfolgt das Projekt einen sehr interessanten Ansatz, der zudem dem typischen Open-Source-Gedanken folgt: Mit einem relativ geringem Einsatz von Mitteln, soll durch eine intelligente Lösungen ein Maximum an Funktionalität erreicht werden.
Ich bin sehr gespannt darauf, welcher Ansatz sich final durchsetzen wird oder ob es eventuell doch eine Mischung verschiedener Lösungen geben wird. Diesbezüglich wird viel von dem die Hardware-Ressourcen überspannenden Management abhängen bzw. von den spezifischen Anforderungen der Kunden. Die Frage ist auch, ob europäische bzw. speziell deutsche Unternehmen überhaupt den Einsatz eines aktuell hauptsächlich in den USA verbreiteten Open-Source-Projektes in Betracht ziehen. Aber dazu später mehr in einem weiteren Blog-Post.
Das nachfolgende Video von Intel unterstützt diese These und vermittelt noch einmal auf anschauliche Art und Weise, warum die Virtualisierung von Netzwerken für Cloud-Infrastrukturen ein Muss ist:
Welche Kern-Aussagen bzgl. Cloud-Infrastrukturen können wir aus dem Video mitnehmen:
Deshalb ist es wichtig, sich mit den verschiedenen technischen Komponenten der Netzwerk-Virtualisierung vertraut zu machen, um dann die richtigen Entscheidungen zu treffen und sein Netzwerk Stück für Stück „Cloud-ready“ zu machen.
Die zentrale Schnittstelle in der Netzwerk-Virtualisierung ist der virtuelle Switch im Hypervisor. Dieser abstrahiert die physikalisch am Virtualisierungs-Host anliegenden Netzwerk-Verbindungen und stellt sie den virtuellen Maschinen zur Verfügung. Mittlerweile gibt es virtuelle Switches mit extrem umfangreichen Funktionen, die ihren physikalischen Geschwistern oftmals nicht mehr nachstehen bzw. teilweise vom Funktionsumfang bereits überlegen sind. Besonders hervorzuheben ist hierbei der Cisco Nexus 1000V, der aktuell bereits von dem Hypervisor VMware vSphere unterstützt wird und zukünftig auch mit der neuen Version von Microsofts Hypervisor Hyper-V (ab der Version 3.0, verfügbar mit Windows Server 2012) kompatibel sein soll.
Andere Hersteller oder Hypervisor, z.B. Citrix ab XenServer Version 6.0 oder KVM, setzen auf den Open vSwitch, einen frei verfügbaren virtuellen Switch, der seit der Linux Version 3.3 sogar Bestandteil des Linux Mainline Kernels ist.
Aber egal welcher virtuelle Switch zum Einsatz kommt, die Funktionen, die sie für den Aufbau einer Cloud-Infrastruktur unabdingbar machen, sind oftmals die gleichen. Vor allem wird die Möglichkeit geschätzt, komplexe Netzwerk-Infrastrukturen bereits auf der Ebene der Virtualisierungs-Hosts abbilden zu können. Denn nur so kann eine saubere Trennung unterschiedlicher Mandanten auf dem Hypervisor erreicht werden, wie sie z.B. von Zertifizierungs-Instanzen wie dem BSI oder ISO für multi-mandantenfähige IT-Infrastrukturen gefordert wird. Des Weiteren sorgen die virtuellen Switches dafür, dass alle definierten Netzwerk-Richtlinien, z.B. auch nach einer vollautomatischen Migration einer virtuellen Maschine, im Fehlerfall wieder angewendet werden. Wichtig für viele Kunden ist auch die Transparenz und Nachvollziehbarkeit des Netzwerk-Verkehrs zwischen VMs, z.B. im Rahmen einer Fehleranalyse, die durch die Unterstützung von Protokollen wie NetFlow und sFlow gegeben ist. Oftmals lassen sich auch QoS-Regeln definieren, die vor allem bei einem Unified-Networking-Ansatz unverzichtbar sind. Des Weiteren bieten die virtuellen Switches bereits heute eine Unterstützung für auf zukünftige Anforderungen ausgerichtete Netzwerktechnologien wie IPv6 oder VXLAN.
Sollten zusätzliche Netzwerk- und Sicherheits-Mechanismen gefordert sein, kann Cisco ebenfalls punkten, lässt sich der virtuelle Switch Cisco Nexus 1000V doch durch zusätzliche Komponenten z.B. um Load-Balancing- oder Firewall-Funktionen erweitern.
Eine Kombination unterschiedlichster Netzwerk-Funktionen bietet der Hersteller Vyatta mit seinem Network OS an, dass mittlerweile mit den gängigsten Virtualisierungslösungen eingesetzt werden kann. In Kombination mit Produkten des Herstellers Citrix ist zusätzlich eine interessante Lösung entstanden: Der vNetworkStack fasst verschiedene virtuelle Appliances beider Hersteller zusammen und stellt auf allen Ebenen des OSI-Modells Funktionen im Netzwerk zur Verfügung.
Zusammengefasst bleibt festzuhalten, dass die virtuellen Switches im Zusammenspiel mit dem Hypervisor zentrale Komponenten bei der Virtualisierung von Netzwerken sind. Ihre volle Leistung können Sie allerdings nur dann entfalten, wenn auch die zugrundeliegende Hardware entsprechend „mitspielt“. In diesem Umfeld bietet mittlerweile fast jeder Hersteller von Netzwerk-Komponenten entsprechende Produkte. Allerdings möchte ich an dieser Stelle noch einmal auf den Hersteller Cisco hinweisen, der in seinen DataCentre-Produkten sein langjähriges Netzwerk Know-How einfließen lässt und damit eine hochinteressante Hardware-Plattform für den Aufbau von Cloud-Infrastrukturen darstellt. Aber dazu mehr im nächsten Blog-Post zum C-L-O-U-D Schichtenmodell.
Serie C-L-O-U-D (1.): Cloud in Scheiben - Das C-L-O-U-D-Schichtenmodell
In meinem ersten Blog-Post zum Thema Cloud Computing habe ich darüber nachgedacht, ob dies wirklich ein fundamentaler Wechsel in der IT-Strategie für Unternehmen ist oder doch nur ein Marketing-Hype. Das Ergebnis ist aus meiner Sicht eindeutig: Cloud Computing bedeutet definitiv einen fundamentalen Wechsel in der IT-Strategie von Unternehmen, bietet es doch diverse Vorteile:- Typischerweise deutlich flexiblere und dynamischere IT-Infrastrukturen,
- Höhere Transparenz,
- Bedarfsgerechte Bereitstellung und Nutzung von Kapazitäten,
- Eine Fokussierung auf Services.
Verdeutlicht wird dies durch das nachfolgende C-L-O-U-D-Schichtenmodell:
Das Modell zeigt neben den verschiedenen Ebenen einer Cloud-Infrastruktur auch die Abhängigkeiten zwischen eben diesen. Eine zusätzliche Gruppierung der Ebenen zeigt auf, dass diese typischerweise übergreifend/zusammenhängend betrachtet werden sollten. Bei genauerer Betrachtung des Modells, lassen sich aus meiner Sicht die „goldenen“ Regeln für den Aufbau einer C-L-O-U-D-Infrastruktur ableiten:
- Eine durchgehende Virtualisierung auf den verschiedenen Ebenen des C-L-O-U-D Delivery Blocks ist zwingend notwendig und Basisvoraussetzung für den Aufbau einer Cloud-Infrastruktur.
- Der C-L-O-U-D Delivery Block ist als Einheit zu verstehen und bildet die Basis der Infrastruktur. Eine Einzelbetrachtung der verschiedenen Ebenen ist zwar grundsätzlich möglich, für den Aufbau einer Cloud-Infrastruktur müssen diese aber in einem übergreifenden Ansatz gemeinsam betrachtet werden.
- Der/die C-L-O-U-D Delivery Block(s) werden durch den Cloud Service-Orchestration Layer übergreifend verwaltet/gesteuert. Die in dieser Ebene befindlichen Komponenten bilden quasi das Herzstück der Cloud-Infrastruktur.
- Die oberhalb des Service-Orchestration Layers liegenden Ebenen integrieren erweiterte Automatisierungsfunktionen (sofern diese in den Komponenten des Service-Orchestration Layers nicht enthalten sind) sowie Komponenten für die Transformation von Geschäftsprozessen in IT-Prozesse.
- In ihrer Gesamtheit bilden die verschiedenen Management Komponenten den C-L-O-U-D-Management-Block, der dafür verantwortlich ist, die Cloud-Infrastruktur „sichtbar“ und „lebendig“ zu machen. Zumindest der Cloud Service-Orchestration Layer ist als Pflichtkomponente zu verstehen.
- Um auf die Cloud-Infrastruktur zugreifen zu können, werden typischerweise Access- und Client-Komponenten benötigt. Je nach Typ/Definition der Cloud (Private/Community, Hybrid, Public) ist eine Betrachtung dieser Komponenten mehr oder weniger notwendig.
Ich hoffe, dass ich mit dem C-L-O-U-D-Schichtenmodell etwas Licht ins Dunkel des Cloud Computing bringen kann. In zukünftigen Blog-Posts werde ich auf die einzelnen Ebenen des Schichtenmodells näher eingehen, verfügbare Produkte bewerten/gegenüberstellen und vielleicht auch schon über erste Praxiserfahrungen berichten können.
Serie C-L-O-U-D (2.): Delivery-Block (Storage-Virtualisierung)
In meinem letzten Blog-Post habe ich das C-L-O-U-D Schichtenmodell vorgestellt und versprochen, auf die einzelnen Schichten näher einzugehen. Dieses Versprechen möchte ich heute einlösen und mit der untersten Schicht des Delivery-Blocks beginnen, dem Storage Virtualization Layer.Storage-Hersteller und Systeme gibt es mittlerweile wie Sand am Meer und erfahrungsgemäß hat jeder Kunde in diesem Umfeld eine eigene Präferenz. Neben den klassischen Hardware-Anbietern bzw. System-Lieferanten gibt es inzwischen auch immer mehr auf Software basierende Lösungen, die vorhandene Storage-Systeme um zusätzliche Funktionen erweitern. Welche dieser verschiedenen Lösungen, bezogen auf den Aufbau einer Cloud-Infrastruktur, sinnvoll einzusetzen sind und welche Funktionen in den Storage-Systemen für Cloud-Computing wirkliche Relevanz haben, möchte ich mit diesem Blog-Post aufzeigen.
Bevor ich mich jedoch intensiver mit dem Thema des Storage Virtualization Layer beschäftige, ist es aus meiner Sicht erforderlich, sich noch einmal die typischen Eigenschaften einer Cloud-Infrastruktur ins Gedächtnis zu rufen:
- Eine Cloud-Infrastruktur ist hochdynamisch, um nicht zu sagen elastisch. Sie kann in alle Richtungen (und somit auch in allen zum Einsatz kommenden Komponenten) skalieren und stellt die verfügbaren Ressourcen bei Bedarf zur Verfügung.
- Eine Cloud fokussiert größtenteils auf die Bereitstellung von Services, was typischerweise eine hohe Integration der einzelnen Komponenten erfordert. Darüber hinaus gibt es für Services zumeist klare Nutzungs- und Verfügbarkeitsanforderungen (Service-Level), die durch alle Komponenten sichergestellt werden müssen. Idealerweise unterstützen die Komponenten die Definition qualitativ unterschiedlicher Service-Level pro Service.
- Eine Cloud-Infrastruktur wird normalerweise gleichzeitig von mehreren Mandanten genutzt. Diese müssen in allen Ebenen und Komponenten voneinander isoliert sein. Durch die gemeinsame Nutzung der verfügbaren Ressourcen soll eine optimierte Ressourcen-Auslastung erreicht werden, wodurch die Wirtschaftlichkeit der Infrastruktur gesteigert werden kann.
- Virtuelle Maschinen
- Snapshots
- Templates
- ISOs
Weitere Kriterien für das Storage-System einer Cloud-Infrastruktur sind (je nach Einsatz-Zweck):
- Deduplikation (reduziert das notwendige Storage-Volumen der Cloud-Infrastruktur)
- Integrierte High-Availability bzw. Replikations-Mechanismen (notwendig für die Abbildung kritischer Systeme)
- Hypervisor-Integration (vereinfacht das Storage-Management)
- API-Schnittstelle (für Automatisierungsroutinen)
Exemplarisch möchte ich an dieser Stelle auf zwei Lösungen etwas genauer eingehen, die unterschiedlicher nicht sein könnten, die aber beide im Kontext von Cloud-Computing bereits sehr erfolgreich eingesetzt werden. Einerseits sind dies die Systeme der Firma NetApp, die bereits seit Jahren den Ansatz größtmöglicher Flexibilität, z.B. hinsichtlich der Protokoll-Unterstützung, verfolgen. Andererseits ist es das Openstack Object Storage (Codename Swift), das Software-basierende Storage-System des Openstack Open-Source-Projektes.
NetApp bietet in seinen Storage-Systemen seit Jahren die Möglichkeit der gleichzeitigen Nutzung unterschiedlicher Storage-Protokolle. Vor einiger Zeit wurde dieser Ansatz um die Möglichkeiten des Multi-Tierings sowie die Nutzung sogenannter Unified-Adpater in den NetApp-Management-Systemen erweitert. Diese bieten die Fähigkeit, mehrere Storage-Protokolle gleichzeitig über einen physikalischen Adapter zur Verfügung zu stellen, was das Management und das Systemdesign des Storage-Systems weiter vereinfacht, ohne die Flexibilität zu beeinträchtigen. Darüber hinaus bietet NetApp integrierte Möglichkeiten zur Isolation von Mandanten (vFiler) und optimiert den Speicherbedarf, z.B. durch die Bildung von Speicherpools (FlexVols) und integrierte Deduplikations-Technologien.
Die NetApp-Systeme bestehen aus ideal aufeinander abgestimmter Hard- und Software. Besonders interessant für das Cloud-Umfeld: NetApp bringt seine Storage-Kompetenz in den Flexpod ein, ein stark standardisiertes System aus NetApp-Storage-Systemen, Cisco-Servern, Netzwerk-Komponenten und VMware vSphere: Sozusagen ein fertiger
C-L-O-U-D-Delivery-Block, der von den beteiligten Unternehmen gemeinsam zu attraktiven Preisen vermarktet und auch supported wird.
Einen gänzlich anderen Ansatz verfolgt das Software-basierte Openstack Object Storage „Swift“, welches aus Standard-Servern ein geclustertes und somit hochverfügbares und theoretisch unendlich skalierbares Cloud-Storage erzeugt. Fällt ein Cluster-Knoten aus, kann dieser einfach durch einen neuen Knoten ersetzt werden. Entsprechende Replikations-Mechanismen sind in „Swift“ standardmäßig enthalten.
Objekte werden je nach Design automatisch an mehreren Stellen gespeichert und sind somit redundant enthalten. Damit verfolgt das Projekt einen sehr interessanten Ansatz, der zudem dem typischen Open-Source-Gedanken folgt: Mit einem relativ geringem Einsatz von Mitteln, soll durch eine intelligente Lösungen ein Maximum an Funktionalität erreicht werden.
Ich bin sehr gespannt darauf, welcher Ansatz sich final durchsetzen wird oder ob es eventuell doch eine Mischung verschiedener Lösungen geben wird. Diesbezüglich wird viel von dem die Hardware-Ressourcen überspannenden Management abhängen bzw. von den spezifischen Anforderungen der Kunden. Die Frage ist auch, ob europäische bzw. speziell deutsche Unternehmen überhaupt den Einsatz eines aktuell hauptsächlich in den USA verbreiteten Open-Source-Projektes in Betracht ziehen. Aber dazu später mehr in einem weiteren Blog-Post.
Serie C-L-O-U-D (3.): Delivery-Block (Netzwerk-Virtualisierung)
In meinem letzten Blog-Post zum C-L-O-U-D Schichtenmodell ging es um die unterste Ebene des C-L-O-U-D Delivery-Blocks, die Storage-Virtualisierung. Die nächst höhere Schicht ist die der Netzwerk-Virtualisierung, die Thema des heutigen Blog-Posts ist. Ich möchte an dieser Stelle gleich vorweg nehmen, dass dieser Ebene meiner Meinung nach eine ganz besondere Bedeutung zukommt. Warum? Weil jeder IT-Administrator bzw. jeder mit IT-Infrastrukturen Beschäftigte weiß, dass ein „vernünftiges“ Netzwerk die Basis für eine performante und verlässliche IT-Infrastruktur darstellt - und dies gilt umso mehr in hochdynamischen Cloud-Infrastrukturen.Das nachfolgende Video von Intel unterstützt diese These und vermittelt noch einmal auf anschauliche Art und Weise, warum die Virtualisierung von Netzwerken für Cloud-Infrastrukturen ein Muss ist:
Welche Kern-Aussagen bzgl. Cloud-Infrastrukturen können wir aus dem Video mitnehmen:
- „Unified Networking“: Durch die Definition von „Channels“ ist es möglich, auf einer einzigen physikalischen Verbindung unterschiedliche Protokolle (Netzwerk / Storage) parallel zu nutzen.
- „Wider and smarter pipe“: Durch die Unterstützung von 10GBit ist eine optimale Bereitstellung von Netzwerk-Ressourcen (z.B. Bandbreite), abhängig vom Bedarf der virtuellen Maschine (Workload) möglich.
- „No more Over-Engineering of DataCentres“: Die zuvor genannten Technologien verhindern also eine „Über-Dimensionierung“ des Rechenzentrums, sorgen sie doch für eine bessere Auslastung der verfügbaren Netzwerk-Ressourcen sowie eine bedarfsgerechte Bereitstellung und eine Reduktion der notwendigen Hardware durch gleichzeitiger Nutzung mehrerer Protokolle auf einer Verbindung.
- Eine Cloud-Infrastruktur entsteht selten auf der „grünen Wiese“, sondern wird zumeist aus einer bestehenden IT-Infrastruktur heraus „geboren“.
Deshalb ist es wichtig, sich mit den verschiedenen technischen Komponenten der Netzwerk-Virtualisierung vertraut zu machen, um dann die richtigen Entscheidungen zu treffen und sein Netzwerk Stück für Stück „Cloud-ready“ zu machen.
Die zentrale Schnittstelle in der Netzwerk-Virtualisierung ist der virtuelle Switch im Hypervisor. Dieser abstrahiert die physikalisch am Virtualisierungs-Host anliegenden Netzwerk-Verbindungen und stellt sie den virtuellen Maschinen zur Verfügung. Mittlerweile gibt es virtuelle Switches mit extrem umfangreichen Funktionen, die ihren physikalischen Geschwistern oftmals nicht mehr nachstehen bzw. teilweise vom Funktionsumfang bereits überlegen sind. Besonders hervorzuheben ist hierbei der Cisco Nexus 1000V, der aktuell bereits von dem Hypervisor VMware vSphere unterstützt wird und zukünftig auch mit der neuen Version von Microsofts Hypervisor Hyper-V (ab der Version 3.0, verfügbar mit Windows Server 2012) kompatibel sein soll.
Andere Hersteller oder Hypervisor, z.B. Citrix ab XenServer Version 6.0 oder KVM, setzen auf den Open vSwitch, einen frei verfügbaren virtuellen Switch, der seit der Linux Version 3.3 sogar Bestandteil des Linux Mainline Kernels ist.
Aber egal welcher virtuelle Switch zum Einsatz kommt, die Funktionen, die sie für den Aufbau einer Cloud-Infrastruktur unabdingbar machen, sind oftmals die gleichen. Vor allem wird die Möglichkeit geschätzt, komplexe Netzwerk-Infrastrukturen bereits auf der Ebene der Virtualisierungs-Hosts abbilden zu können. Denn nur so kann eine saubere Trennung unterschiedlicher Mandanten auf dem Hypervisor erreicht werden, wie sie z.B. von Zertifizierungs-Instanzen wie dem BSI oder ISO für multi-mandantenfähige IT-Infrastrukturen gefordert wird. Des Weiteren sorgen die virtuellen Switches dafür, dass alle definierten Netzwerk-Richtlinien, z.B. auch nach einer vollautomatischen Migration einer virtuellen Maschine, im Fehlerfall wieder angewendet werden. Wichtig für viele Kunden ist auch die Transparenz und Nachvollziehbarkeit des Netzwerk-Verkehrs zwischen VMs, z.B. im Rahmen einer Fehleranalyse, die durch die Unterstützung von Protokollen wie NetFlow und sFlow gegeben ist. Oftmals lassen sich auch QoS-Regeln definieren, die vor allem bei einem Unified-Networking-Ansatz unverzichtbar sind. Des Weiteren bieten die virtuellen Switches bereits heute eine Unterstützung für auf zukünftige Anforderungen ausgerichtete Netzwerktechnologien wie IPv6 oder VXLAN.
Sollten zusätzliche Netzwerk- und Sicherheits-Mechanismen gefordert sein, kann Cisco ebenfalls punkten, lässt sich der virtuelle Switch Cisco Nexus 1000V doch durch zusätzliche Komponenten z.B. um Load-Balancing- oder Firewall-Funktionen erweitern.
Eine Kombination unterschiedlichster Netzwerk-Funktionen bietet der Hersteller Vyatta mit seinem Network OS an, dass mittlerweile mit den gängigsten Virtualisierungslösungen eingesetzt werden kann. In Kombination mit Produkten des Herstellers Citrix ist zusätzlich eine interessante Lösung entstanden: Der vNetworkStack fasst verschiedene virtuelle Appliances beider Hersteller zusammen und stellt auf allen Ebenen des OSI-Modells Funktionen im Netzwerk zur Verfügung.
Zusammengefasst bleibt festzuhalten, dass die virtuellen Switches im Zusammenspiel mit dem Hypervisor zentrale Komponenten bei der Virtualisierung von Netzwerken sind. Ihre volle Leistung können Sie allerdings nur dann entfalten, wenn auch die zugrundeliegende Hardware entsprechend „mitspielt“. In diesem Umfeld bietet mittlerweile fast jeder Hersteller von Netzwerk-Komponenten entsprechende Produkte. Allerdings möchte ich an dieser Stelle noch einmal auf den Hersteller Cisco hinweisen, der in seinen DataCentre-Produkten sein langjähriges Netzwerk Know-How einfließen lässt und damit eine hochinteressante Hardware-Plattform für den Aufbau von Cloud-Infrastrukturen darstellt. Aber dazu mehr im nächsten Blog-Post zum C-L-O-U-D Schichtenmodell.
Eingestellt von
2nd Hand in Rodenberg / Schaumburg - Spielsachen, Kinderkleidung und mehr
um
14:45
Keine Kommentare:
Labels:
C-L-O-U-D,
Cisco Nexus,
Flexpod,
Hyper-V,
Intel,
NetApp,
Netzwerk-Virtualisierung,
OpenStack,
Storage-Virtualisierung,
Swift,
Unified-Networking,
Unified-Storage,
vNetworkStack,
VXLAN,
Vyatta
Dienstag, 21. Februar 2012
C-L-O-U-D - Das geheimnisvolle Akronym ... Zweitveröffentlichung
Hallo zusammen,
an dieser Stellemöchte ich einmal kurz Werbung machen, und zwar für den neuen Cloud-Computing-Blog meines Arbeitgebers, der COMPAREX Deutschland AG.
In dem neuen CloudMACHER-Blog erscheint ab sofort jeden Dienstag ein neuer Blog von mir oder meinen Kollegen zum Themenkomplex Cloud-Computing. Ich werde meine eigenen Blog-Posts mit einem kurzen zeitlichen Versatz ebenfalls hier auf Cloudfected.com veröffentlichen. Hier nun also auf der Auftakt-Post zu einer Serie von Blog-Posts zum Thema Cloud-Computing....happy reading!
C-L-O-U-D – das geheimnisvolle Akronym
Ist es nur die konsequente Weiterentwicklung und verstärkte Nutzung bekannter Virtualisierungs-Technologien oder ist es eine grundlegend andere Art und Weise, wie Unternehmen zukünftig ihre IT-Infrastruktur planen und betreiben werden? Das folgende Akronym von CLOUD beschreibt dabei die Vorteile des Cloud Computings für Unternehmen aus meiner Sicht relativ gut:
C-L-O-U-D: Change Localized Oversized Underperforming DataCentres
Cloud Computing verändert also in der Tat die Art und Weise, wie Unternehmen ihre IT-Infrastruktur – und damit ihre Rechenzentren - in der Zukunft planen und betreiben. Künftige Lösungen können durch aktuelle Cloud-Management-Systeme relativ einfach auf mehrere, auch weit voneinander entfernte Rechenzentren ausgeweitet und trotzdem von zentraler Stelle verwaltet werden. Die verschiedenen Kapazitäten in den Rechenzentren (Storage, Netzwerk, Rechenleistung, Internet-Bandbreite, etc.) werden optimiert ausgelastet bzw. den Systemen zugewiesen, die sie gerade benötigen. Jedes in einer Cloud-Infrastruktur betriebene System erhält genau die Kapazität, die es benötigt bzw. für dies es definiert ist; nicht mehr – aber auch nicht weniger. Somit erzielen die Systeme einer Cloud zumeist die optimale, zumindest aber die durch den Benutzer / Kunden angeforderte Leistung. Auch dies ist ein besonderer Aspekt und aus meiner Sicht auch ein großer Vorteil von Cloud-Infrastrukturen: Sie machen den Benutzern / Kunden transparent, für was Sie ihr Geld ausgeben.
Die Basis für diese Transformation zu einer dynamischen, sich den Anforderungen und Wünschen der Benutzer / Kunden anpassenden IT-Infrastruktur, bildet die bereits erwähnte Virtualisierung, die allerdings möglichst durchgehend realisiert werden muss. Deshalb habe ich ein Schichtenmodell erstellt, welches die unterschiedlichen Ebenen einer Cloud-Infrastruktur visualisiert und näher beschreibt. Details dazu werde ich in Zukunft an dieser Stelle in einer Serie von Blog-Posts veröffentlichen und damit sowohl auf die Herausforderungen als auch auf einige der aktuell verfügbaren Lösungen / Lösungsansätze tiefer eingehen.
Die Basis für diese Transformation zu einer dynamischen, sich den Anforderungen und Wünschen der Benutzer / Kunden anpassenden IT-Infrastruktur, bildet die bereits erwähnte Virtualisierung, die allerdings möglichst durchgehend realisiert werden muss. Deshalb habe ich ein Schichtenmodell erstellt, welches die unterschiedlichen Ebenen einer Cloud-Infrastruktur visualisiert und näher beschreibt. Details dazu werde ich in Zukunft an dieser Stelle in einer Serie von Blog-Posts veröffentlichen und damit sowohl auf die Herausforderungen als auch auf einige der aktuell verfügbaren Lösungen / Lösungsansätze tiefer eingehen.
P.S.: Die Links zum CloudMACHER-Blog und noch ein paar andere interessante Links (z.B. zu meinen veröffentlichten Fachartikeln in der LanLine) findet ihr ab sofort über die Link-Seite...
Wünsche noch eine erfolgreiche Woche,
Joern
Dienstag, 3. Januar 2012
HowTo: Selbst-signiertes Zertifikat für Citrix Merchandising Server mit OpenSSL
Hallo zusammen und erst mal ein frohes, gesundes neues Jahr!
Der erste Post im Jahr 2012 dreht sich um das Thema Citrix Merchandising Server, die zentrale Verwaltungs- und Rollout-Instanz für den Citrix Receiver für Windows sowie die darauf aufsetzenden Plug-Ins. Dabei geht es nicht um den Merchandising Server an sich (das kommt ev. in einem anderen Post gekoppelt mit dem Receiver für Windows), sondern konkret um das Problem, dass das interne, selbst-signierte Zertifikat des Merchandising Servers nur eine Laufzeit von 30 Tagen hat. Somit muss man sich also bei der Implementierung des Merchandising Servers auf jeden Fall gedanken darüber machen, wie man dieses Zertifikat kurzfristig ersetzt. Da nicht jeder Kunde von Citrix eine interne CA hat oder diese nur für den Merchandising Server aufbauen möchte, ggf. aber auch nicht bereit ist, ein kostenpflichtiges Zertifikat von einer externen CA zu erwerben, bleibt noch der Weg über ein selbst-signiertes Zertifikat mit verlängerter Laufzeit. Dieser Blog-Post zeigt, wie dieses Zertifikat mittels OpenSSL für Windows erstellt werden kann.
Generelle Infos zu OpenSSL:
Homepage des OpenSSL-Projektes: http://www.openssl.org/
Download von OpenSSL (1.0.0e) für Windows: http://www.slproweb.com/products/Win32OpenSSL.html
Download von OpenSSL (1.0.0e) für Windows: http://www.slproweb.com/products/Win32OpenSSL.html
Anleitung:
Die Installation von OpenSSL kann auf jedem aktuell unterstützten
Windows-Betriebssystem erfolgen. Der Installer entpackt die Daten standardmäßig
in den folgenden Ordner: C:\OpenSSL-Win32
OpenSSL wird grundsätzlich aus der Kommandozeile genutzt.
Die ausführbare Datei (openssl.exe) befindet sich im Unterordner „bin“ C:\OpenSSL-Win32\bin
Nachfolgend wird die Konfiguration eines selbst-signierten
Zertifikats mit einer Laufzeit von drei Jahren mit Hilfe von OpenSSL für Citrix
Merchandising Server dokumentiert:
Hinweis: Die Namen der Dateien sollten nicht verändert
werden, da diese in der Logik des Merchandising-Servers fest hinterlegt sind.
Zunächst muss ein privater Schlüssel erzeugt werden.
Kommandozeilen-Befehl:
openssl genrsa -des3 -out server.key 1024
Für den privaten Schlüssel muss zunächst ein Passwort
vergeben werden (dies wird im Nachhinein wieder entfernt). Die Eingabe des
Passworts wird nicht angezeigt.
Nach erfolgreicher Erstellung befindet sich die Datei
server.key in dem Verzeichnis C:\OpenSSL-Win32\bin
Der zweite Schritt ist die Erstellung eines
„Certificate-Signing-Requests“ (CSR), der später, im finalen Schritt, für die
Erstellung des eigentlichen Zertifikats notwendig ist. Hierfür müssen bestimmte
Informationen eingegeben werden.
Kommandozeilen-Befehl:
openssl req
-new -key server.key –config C:\OpenSSL-Win32\bin\openssl.cfg -out server.csr
Einzugebende Informationen:
Country Name (2 letter code) [AU]: DE
State or
Province Name (full name) [Some-State]:Bayern
Locality
Name (eg, city) []: Augsburg
Organization
Name (eg, company) [Internet Widgits Pty Ltd]: Musterfirma GmbH
Organizational
Unit Name (eg, section): IT
Common Name
(eg, YOUR name) []: receiver.kbs.drv
Email
Address []: helpdesk@musterfirma.de
A challenge
password []: XXXX
An optional
company name []: .
Im nächsten Schritt wird das Passwort des privaten
Schlüssels entfernt. Hierzu wird zunächst die Datei server.key in
server.key.tmp umbenannt.
Kommandozeilen-Befehl:
Ren server.key server.key.tmp
Anschließend wird mit dem folgenden Befehl eine Kopie der
Datei server.key.tmp ohne Passwortschutz erstellt:
Kommandozeilen-Befehl:
openssl rsa
-in server.key.tmp -out server.key
Abschließend wird auf Basis des nun ohne Passwort
geschützten privaten Schlüssels das eigentliche Zertifikat erstellt.
Kommandozeilen-Befehl:
openssl x509
-req -days 365 -in server.csr -signkey server.key -out server.crt
Die erzeugten Dateien (server.key, server.crt und server.crt)
müssen nun auf den Merchandising Server in das folgende Verzeichnis kopiert
werden: /etc/httpd/conf (z.B. per WinSCP). Aus Sicherheitsgründen sollten die bestehenden Dateien
auf dem Merchandising-Server vor dem Ersetzen gesichert werden.
Um die Dateien transferieren zu können, muss auf dem
Merchandising-Server (an der Konsole) der SSH-Daemon gestartet werden.
Kommandozeilen-Befehl
(Merchandising Server):
/etc/init.d/sshd start
Hinweis:
Durch den Befehl wird einmalig der Dienst „ssh“ gestartet. Nach dem
abschließenden Reboot ist der Dienst wieder inaktiv. Um diesen dauerhaft zu
aktivieren, sind weitere Anpassungen notwendig.
Nach dem Transfer der Dateien muss der Merchandising Server
per-Reboot-Befehl neu gestartet werden.
Kommandozeilen-Befehl (Merchandising
Server):
Reboot
In diesem Sinne, viel Erfolg beim Aktualisieren der Zertifikate des Merchandising Servers und eine schöne erste Restarbeitswoche in 2012.
VG,
Jörn
Donnerstag, 15. Dezember 2011
Design-Änderung...
Hallo, ich habe eine Design-Änderung durchgeführt, da die jetzt verwendete Vorlage deutlich mehr Funktionen unterstützt. Darüberhinaus habe ich die Menü-Struktur etwas optimiert. Hoffe es gefällt...
Viel Spaß mit dem aktualisierten Blog und noch eine schöne Restwoche...
Jörn
Viel Spaß mit dem aktualisierten Blog und noch eine schöne Restwoche...
Jörn
Mittwoch, 14. Dezember 2011
Aus Xenified wird Xenified and Cloudfected...
Guten Morgen zusammen,
das Jahr 2011 geht mit starken Schritten dem Ende entgegen und ich habe zum Ende des Jahres noch eine kleine Neuigkeit zu verkünden, die vor allem für 2012 und generell für die Zukunft dieses Blogs wichtig ist:
Hier also die Neuigkeit: Dieser Blog ist nun über eine eigene Domain, Cloudfected.com, erreichbar (die alte URL xenified.blogspot.com geht natürlich auch weiterhin.)
Was bedeutet das für die Zukunft: Das Thema und die Inhalte dieses Blogs werden sich in 2012 signifikant erweitern, vor allem um das Thema Cloud-Computing. Meine Wurzeln habe ich natürlich immer noch in den klassischen / etablierten Citrix (Xen) Produkten und werde auch weiterhin über diese berichten, allerdings positioniert sich auch die Firma Citrix immer stärker als ein strategischer Anbieter im Cloud-Umfeld und dieser Entwicklung folge ich mit zuerst mit der Namens-Erweiterung und dann später mit der inhaltlichen Erweiterung dieses Blogs.
In diesem Sinne freue ich mich schon jetzt auf das nächste Jahr, wünsche allen Lesern noch eine frohe Vorweihnachtszeit und schon mal ein schönes Weihnachtsfest und einen guten Rutsch nach 2012.
VG
Jörn
das Jahr 2011 geht mit starken Schritten dem Ende entgegen und ich habe zum Ende des Jahres noch eine kleine Neuigkeit zu verkünden, die vor allem für 2012 und generell für die Zukunft dieses Blogs wichtig ist:
Hier also die Neuigkeit: Dieser Blog ist nun über eine eigene Domain, Cloudfected.com, erreichbar (die alte URL xenified.blogspot.com geht natürlich auch weiterhin.)
Was bedeutet das für die Zukunft: Das Thema und die Inhalte dieses Blogs werden sich in 2012 signifikant erweitern, vor allem um das Thema Cloud-Computing. Meine Wurzeln habe ich natürlich immer noch in den klassischen / etablierten Citrix (Xen) Produkten und werde auch weiterhin über diese berichten, allerdings positioniert sich auch die Firma Citrix immer stärker als ein strategischer Anbieter im Cloud-Umfeld und dieser Entwicklung folge ich mit zuerst mit der Namens-Erweiterung und dann später mit der inhaltlichen Erweiterung dieses Blogs.
In diesem Sinne freue ich mich schon jetzt auf das nächste Jahr, wünsche allen Lesern noch eine frohe Vorweihnachtszeit und schon mal ein schönes Weihnachtsfest und einen guten Rutsch nach 2012.
VG
Jörn
Mittwoch, 21. September 2011
Citrix Provisioning Services Flowchart
Hallo zusammen,
nach langer Zeit mal wieder ein Update :-)....ich bitte um Entschduligung für die lange Wartezeit, aber viel Arbeit (sowohl Beruf als auch privat) haben mich vom Posten abgehalten. Dafür gibt es heute mal wieder was interessantes, und zwar zu einem meiner Lieblingsthemen: Citrix Provisioning Services.
Ich habe mir mal die Arbeit gemacht, ein Flowchart zu erstellen, was den Kommunikationsverlauf der Citrix Provsioning Services darstellt.
Das Flowchart kann hier heruntergeladen werden: http://dl.dropbox.com/u/26016606/Xenified/PVS-Basic-Flowchart_V1.jpg
Ich hoffe, dem ein oder anderen hilft es weiter. Fragen oder Feedback sind natürlich willkommen.
VG,
Joern
nach langer Zeit mal wieder ein Update :-)....ich bitte um Entschduligung für die lange Wartezeit, aber viel Arbeit (sowohl Beruf als auch privat) haben mich vom Posten abgehalten. Dafür gibt es heute mal wieder was interessantes, und zwar zu einem meiner Lieblingsthemen: Citrix Provisioning Services.
Ich habe mir mal die Arbeit gemacht, ein Flowchart zu erstellen, was den Kommunikationsverlauf der Citrix Provsioning Services darstellt.
Das Flowchart kann hier heruntergeladen werden: http://dl.dropbox.com/u/26016606/Xenified/PVS-Basic-Flowchart_V1.jpg
Ich hoffe, dem ein oder anderen hilft es weiter. Fragen oder Feedback sind natürlich willkommen.
VG,
Joern
Montag, 1. August 2011
Aktualisierung: Citrix Update- / Patch-Lists
Hi, kurze Info zum Wochenanfang: Ich habe die Patch-Liste aktualisiert bzw. erweitert. Hinzugekommen ist eine Patch-Übersicht für die Komponenten von Citrix XenDesktop 4. Zwar ist dieses Produkt nicht mehr der aktuellste Stand (wir sind mittlerweile bei XenDesktop 5), aber doch noch bei einigen Kunden im Einsatz. Demnächst werde ich die Patches auch direkt als Archiv zum Download anbieten, so dass jeder immer den aktuellen Stand für ein Produkt "En-Bloc" herunterladen kann und sich nicht durch die einzelnen Artikel klicken muss.
Wünsche eine schöne Woche...
VG, Jörn
Wünsche eine schöne Woche...
VG, Jörn
Freitag, 22. Juli 2011
Ein paar Gedanken zu "Bring Your Own Computer / Device" (BYOC/D)
Guten Morgen,
aktuell beteilige ich mich an einer Diskussion im LanLine-Forum bzgl. des Konzeptes von "Bring Your Own Computer / Device". Aus Gründen der Lesbarkeit im Diskussionsverlauf habe ich meinen Beitrag für das Forum gekürzt und möchte an dieser Stelle den originalen, ungekürzten Text bereistellen. Feedback ist natürlich willkommen, sowohl hier als auch im LanLine-Forum (LanLine-Forum: Diskussion über BYO(C/D). Hier nun der originale Text:
***
Ist das Konzept sinnvoll? Nicht für alles und jeden (in der IT gibt es meines Erachtens kein „One Size fits all“), aber es gibt durchaus einige Anwendungsfälle. Ich denke da z.B. an Einrichtungen im Umfeld von Forschung und Lehre, aber auch an Unternehmen bzw. Unternehmensbereiche mit einer Projektorganisation. Überall, wo eine hohe Dynamik gefordert ist oder wo es darum geht, schnell Ergebnisse zu erzielen, stoßen die IT-Abteilungen mit ihren zum Teil aufwändigen Prozessen oft an ihre Grenzen. Dies bremst im schlimmsten Fall die Entwicklung von Unternehmen. Wollen die IT-Abteilungen aber ihre Relevanz behalten, müssen Sie ihr Verhalten ändern: Von „Nein, dass entspricht nicht unseren Standards“ hin zu „Ja, wir machen das möglich (unter folgenden Bedingungen)“. Wenn Sie das nicht tun, werden die Mitarbeiter Wege und Möglichkeiten finden, die Richtlinien der IT-Abteilungen zu umgehen z.B. durch Nutzung von Cloud-basierten Diensten / Angeboten.
Wer sind die Nutzer eines solchen Konzeptes: Zunächst mit Sicherheit die technikbegeisterten „Nerds“, wie es ein Vorredner so schön formuliert hat. Dazu kommen aus meiner Sicht noch die Management-Funktionen und sämtliche Nachwuchsführungskräfte, die sogenannten High-Potentials. Aber warum genau diese Gruppen? Weil diese Gruppen einfache Lösungen bevorzugen: Das Instant-On-Erlebnis von iPad und Co. schlägt kein Laptop / Netbook mit installiertem Windows. Die neuen Geräte sind klein und leicht, haben extrem lange Akkulaufzeiten und eine Usability, die ebenfalls nicht zu schlagen ist. Sie sind somit z.B. auch ideal für Studenten geeignet, die damit ihre Vorlesungen protokollieren können. Es bleibt also festzuhalten, dass die Generation, die heute in das Berufsleben eintritt, den täglichen Umgang mit dieser Art von Geräten gewöhnt ist. Warum soll ich mir als Unternehmen die Arbeit machen, die Benutzer umzugewöhnen? Warum ermögliche ich es den Benutzern nicht einfach, so zu arbeiten, wie Sie es aus Ihrer Freizeit kennen? Kommt ihnen dieses Szenario auch bekannt vor? Ich meine ich zu erinnern, dass ein Produkt namens „Windows“ genau diesem Effekt seinen Siegeszug in Unternehmen zu verdanken hat.
Werden rechtliche Hürden BYO(C/D) aufhalten: Definitiv nein! Das Konzept beschreibt aus meiner Sicht den Wunsch der Mitarbeiter nach mehr Flexibilität im Arbeitsalltag. Das ist für die Mitarbeiter doch etwas extrem positives, genauso wie Home-Offices, private Nutzung dienstlicher Mobiltelefone, Arbeitszeitkonten, Dienstwagen, private Nutzung von Flugmeilen, etc. All das ist heute Standard in Unternehmen, weil die Mitarbeiter nach solchen Lösungen verlangen. Und genauso werden BYO(C/D)-Konzepte in den nächsten Jahren Standard werden, egal welche rechtlichen Hürden dafür zu nehmen sind.
Wird BYO(C/D) der neue Standard für Unternehmen sein: Ebenfalls definitiv nein! Das Konzept ist eine Ergänzung zu bestehenden Lösungen in Unternehmen für eine ganz bestimmte Benutzergruppe. Für Task-Worker sind andere Lösungen definitiv sinnvoller.
Ist das Konzept heute bereits technisch umsetzbar: Defintiv ja, die Techniken sind alle vorhanden und im täglichen Alltag bereits erprobt! Die Basis dafür haben die meisten Unternehmen sogar bereits aktiv im Einsatz, nämlich eine Virtualisierungs-Infrastruktur.: Ergänzt man das Ganze nun noch um Appliaktions-Virtualisierung, schnelle und intelligente Provisioning-Verfahren, ein User Environment-Management, neue Sicherheitstechnologien und passt seine IT-Prozesse an, erhält man irgendwann eine Infrastruktur, die BYO(C/D) ermöglicht . Und jetzt im Ernst: Wie würde ein IT-Berater spontan auf die Frage antworten: „It depends“. Es hängt nämlich tatsächlich davon ab, was das Unternehmen bzw. die IT-Abteilung eigentlich genau erreichen will. Will es nur für eine kleine Handvoll Mitarbeiter die Nutzung von privaten Endgeräten ermöglich, gestaltet sich das Ganze zumeist nicht so schwierig / aufwändig. Will er aber seine gesamte Infrastruktur dynamischer gestalten und den wachsenden Ansprüchen von Mitarbeitern und Unternehmensführung auch in Zukunft gerecht werden, so sind die Anpassungen zumeist deutlich aufwändiger.
Was für Kosten entstehen: Wie bereits in dem Punkt zuvor gilt: „It depends“. Für fundamentale Änderungen an Infrastruktur und Prozessen entstehen natürlich zunächst auch hohe Investitionskosten. Wenn man es dann aber „richtig“ macht, können die operativen Kosten mittlel- bzw. langfristig zumeist deutlich gesenkt werden. Man denke nur mal an die Einsparpotenziale bei Stromkosten: Wer schaltet denn heute seinen stationären Rechner am Arbeitsplatz im Unternehmen noch aus?
Fazit: Ist BYO(C/D) für mich ein essentieller Treiber zur Veränderung der IT-Landschaft in Unternehmen. Ein klares JEIN? Wie bereits gesagt gibt es viele Unternehmen, die dadurch sehr viel „gewinnen“ können. Des Weiteren kann das Konzept eine Möglichkeit darstellen, sich vom Mitbewerb zu differenzieren, z.B. wenn es um die Akquise neuer Mitarbeiter geht. Denn wenn man diversen Zeitungsberichten und Studien Glauben schenken darf, ist der „Krieg“ um die High-Potentials ja schon entbrannt. Auf der anderen Seite wird es mit Sicherheit genauso viele Unternehmen geben, für die BYO(C/D) aktuell (und vielleicht auch in Zukunft) gar nicht in Frage kommt. Als Consultant kann ich mich eigentlich nur wiederholen und sagen: It depends.
***
Viele Grüße und ein schönes Wochenende,
Jörn
aktuell beteilige ich mich an einer Diskussion im LanLine-Forum bzgl. des Konzeptes von "Bring Your Own Computer / Device". Aus Gründen der Lesbarkeit im Diskussionsverlauf habe ich meinen Beitrag für das Forum gekürzt und möchte an dieser Stelle den originalen, ungekürzten Text bereistellen. Feedback ist natürlich willkommen, sowohl hier als auch im LanLine-Forum (LanLine-Forum: Diskussion über BYO(C/D). Hier nun der originale Text:
***
Ist das Konzept sinnvoll? Nicht für alles und jeden (in der IT gibt es meines Erachtens kein „One Size fits all“), aber es gibt durchaus einige Anwendungsfälle. Ich denke da z.B. an Einrichtungen im Umfeld von Forschung und Lehre, aber auch an Unternehmen bzw. Unternehmensbereiche mit einer Projektorganisation. Überall, wo eine hohe Dynamik gefordert ist oder wo es darum geht, schnell Ergebnisse zu erzielen, stoßen die IT-Abteilungen mit ihren zum Teil aufwändigen Prozessen oft an ihre Grenzen. Dies bremst im schlimmsten Fall die Entwicklung von Unternehmen. Wollen die IT-Abteilungen aber ihre Relevanz behalten, müssen Sie ihr Verhalten ändern: Von „Nein, dass entspricht nicht unseren Standards“ hin zu „Ja, wir machen das möglich (unter folgenden Bedingungen)“. Wenn Sie das nicht tun, werden die Mitarbeiter Wege und Möglichkeiten finden, die Richtlinien der IT-Abteilungen zu umgehen z.B. durch Nutzung von Cloud-basierten Diensten / Angeboten.
Wer sind die Nutzer eines solchen Konzeptes: Zunächst mit Sicherheit die technikbegeisterten „Nerds“, wie es ein Vorredner so schön formuliert hat. Dazu kommen aus meiner Sicht noch die Management-Funktionen und sämtliche Nachwuchsführungskräfte, die sogenannten High-Potentials. Aber warum genau diese Gruppen? Weil diese Gruppen einfache Lösungen bevorzugen: Das Instant-On-Erlebnis von iPad und Co. schlägt kein Laptop / Netbook mit installiertem Windows. Die neuen Geräte sind klein und leicht, haben extrem lange Akkulaufzeiten und eine Usability, die ebenfalls nicht zu schlagen ist. Sie sind somit z.B. auch ideal für Studenten geeignet, die damit ihre Vorlesungen protokollieren können. Es bleibt also festzuhalten, dass die Generation, die heute in das Berufsleben eintritt, den täglichen Umgang mit dieser Art von Geräten gewöhnt ist. Warum soll ich mir als Unternehmen die Arbeit machen, die Benutzer umzugewöhnen? Warum ermögliche ich es den Benutzern nicht einfach, so zu arbeiten, wie Sie es aus Ihrer Freizeit kennen? Kommt ihnen dieses Szenario auch bekannt vor? Ich meine ich zu erinnern, dass ein Produkt namens „Windows“ genau diesem Effekt seinen Siegeszug in Unternehmen zu verdanken hat.
Werden rechtliche Hürden BYO(C/D) aufhalten: Definitiv nein! Das Konzept beschreibt aus meiner Sicht den Wunsch der Mitarbeiter nach mehr Flexibilität im Arbeitsalltag. Das ist für die Mitarbeiter doch etwas extrem positives, genauso wie Home-Offices, private Nutzung dienstlicher Mobiltelefone, Arbeitszeitkonten, Dienstwagen, private Nutzung von Flugmeilen, etc. All das ist heute Standard in Unternehmen, weil die Mitarbeiter nach solchen Lösungen verlangen. Und genauso werden BYO(C/D)-Konzepte in den nächsten Jahren Standard werden, egal welche rechtlichen Hürden dafür zu nehmen sind.
Wird BYO(C/D) der neue Standard für Unternehmen sein: Ebenfalls definitiv nein! Das Konzept ist eine Ergänzung zu bestehenden Lösungen in Unternehmen für eine ganz bestimmte Benutzergruppe. Für Task-Worker sind andere Lösungen definitiv sinnvoller.
Ist das Konzept heute bereits technisch umsetzbar: Defintiv ja, die Techniken sind alle vorhanden und im täglichen Alltag bereits erprobt! Die Basis dafür haben die meisten Unternehmen sogar bereits aktiv im Einsatz, nämlich eine Virtualisierungs-Infrastruktur.
Was für Kosten entstehen: Wie bereits in dem Punkt zuvor gilt: „It depends“. Für fundamentale Änderungen an Infrastruktur und Prozessen entstehen natürlich zunächst auch hohe Investitionskosten. Wenn man es dann aber „richtig“ macht, können die operativen Kosten mittlel- bzw. langfristig zumeist deutlich gesenkt werden. Man denke nur mal an die Einsparpotenziale bei Stromkosten: Wer schaltet denn heute seinen stationären Rechner am Arbeitsplatz im Unternehmen noch aus?
Fazit: Ist BYO(C/D) für mich ein essentieller Treiber zur Veränderung der IT-Landschaft in Unternehmen. Ein klares JEIN? Wie bereits gesagt gibt es viele Unternehmen, die dadurch sehr viel „gewinnen“ können. Des Weiteren kann das Konzept eine Möglichkeit darstellen, sich vom Mitbewerb zu differenzieren, z.B. wenn es um die Akquise neuer Mitarbeiter geht. Denn wenn man diversen Zeitungsberichten und Studien Glauben schenken darf, ist der „Krieg“ um die High-Potentials ja schon entbrannt. Auf der anderen Seite wird es mit Sicherheit genauso viele Unternehmen geben, für die BYO(C/D) aktuell (und vielleicht auch in Zukunft) gar nicht in Frage kommt. Als Consultant kann ich mich eigentlich nur wiederholen und sagen: It depends.
***
Viele Grüße und ein schönes Wochenende,
Jörn
Donnerstag, 21. Juli 2011
BriForum Wrap-Up Day 2 (lange ist's her), neue Patches für PVS56SP1 und PVS 6 Beta
Hallo zusammen,
zuerst mal eine Entschuldigung, dass ich in letzter Zeit keine Updates geschrieben habe, aber ich bin aktuell sehr stark eingebunden in meinen Job und beschäftige mich nebenbei noch mit ein paar anderen Projekten, die relativ viel Zeit in Anpsruch nehmen. Mehr dazu aber demnächst hier in diesem Blog. Jetzt zu den Updates. Aktuell findet ja das BriForum in Chicago statt, was mich daran erinnert hat, dass ich noch den zweiten Teil schuldig bin. Neben den Sessions, über die ich bereits berichtet habe, waren auch einige interessante Hersteller vor Ort, mit denen ich zum Teil auch noch keine Berührungspunkte hatte. Dazu gehören:
Fazit zum BriForum 2011: Eine super Veranstaltung mit viel "Real-Life-Experience"...nicht gefärbt durch irgendwelche Hersteller. Absolut einen Besuch wert, allerdings nur für die "Techniker" unter uns.
Kommen wir jetzt noch kurz zu einer Ankündigung, die mich wirklich sehr freut: Der Citrix Provisioning Server 6 ist als Beta verfügbar. Warum finde ich das so toll? Weil der Provisioning Server 6 diverse neue Funktionalitäten bietet, die speziell das Image-Handling und Update verbessern. Hierbei möchte ich gerne auf eine Serie von Blog-Posts verweisen, die mein Kollege Christian Calov erstellt hat. Christian zeigt sehr ausführlich, welche neuen Funktionalitäten in der PVS6 Beta vorhanden sind und hat diese auch gleich schon mal angetestet! Kudos Christian...:
Des Weiteren sind neue Patches (E036 und E040) für den Provisioning Server 5.6 SP1 veröffentlicht wurden, die Patch-Liste habe ich entsprechend aktualisiert. Obwohl dies aus dem CTX-Artikel nicht sofort ersichtlich ist, ersetzt zumindest Patch E036 zwei andere Patches. Ich hoffe, dass Citrix die entsprechend veralteten Patches (E017 / E019) dann bald zumindest noch als "SUPERSEDED" kennzeichnet, was aktuell leider nicht der Fall ist. Allerdings enthalten beide Patches mittlerweile die Datei aus Patch E036 als Download-Anhang. Patch E040 ist ebenfalls etwas speziell, darf dieser doch nur installiert werden, wenn Hotfix E029 (Kompatibilität zu XD5) installiert ist. Ist dies nicht der Fall, muss weiterhin Patch E008 installiert werden.
VG, Jörn
zuerst mal eine Entschuldigung, dass ich in letzter Zeit keine Updates geschrieben habe, aber ich bin aktuell sehr stark eingebunden in meinen Job und beschäftige mich nebenbei noch mit ein paar anderen Projekten, die relativ viel Zeit in Anpsruch nehmen. Mehr dazu aber demnächst hier in diesem Blog. Jetzt zu den Updates. Aktuell findet ja das BriForum in Chicago statt, was mich daran erinnert hat, dass ich noch den zweiten Teil schuldig bin. Neben den Sessions, über die ich bereits berichtet habe, waren auch einige interessante Hersteller vor Ort, mit denen ich zum Teil auch noch keine Berührungspunkte hatte. Dazu gehören:
- Quest, Produkt vWorkspace plus Mokafive (Quest - vWorkspace)
- XtremeIO (Rack-Mounted SSD-Storage für VDI)
- Centrix (Application Monitoring) (Centrix Software)
- Atlantis Computing, Produkt Atlantis ILIO (Atlantis Computing)
- Quest, Produkt vWorkspace plus Mokafive: Scheint eine valide Alternative zu Citrix XenDesktop zu sein, günstiger im Preis, ähnlicher Funktionsumfang, sehr gutes Remote-Protokoll für viele Einsatzzwecke geeignet, zentrales Management. Mehr kann ich leider noch nicht beitragen, da ich bisher keine Zeit hatte, dass Produkt selber zu testen, aber es scheint defintiv mehr als einen Blick Wert zu sein.
- XtremeIO: Ein StartUP-Unternehmen aus Israel, welches Rack-Mounted SSDs mit extrem hoher IO-Performance anbieten will. Sie versprechen sehr sehr viel, aber aob dies wirklich Realität ist / wird, muss sich noch beweisen. Und wo wir schon beim Thema sind. Nicolas Rintalan vom Citrix-Consulting Americas hat einen hoch interessanten Blog zum Thema VDI und SSDs geschrieben. Und mindestens genauso interessant wie der Blog selbst, sind die Kommentare: Link: Blog von Nicolas Rintalan
- Centrix: Centrix ist ein englisches Unternehmen, welches eine Monitoring-Software für die Applikationsnutzung mit sehr guten Reporting-Funktionen anbietet. Mit der Software ist man in der Lage, Daten über die historische und aktuelle Applikations-Nutzung im Unternehmen zu sammeln und somit z.B. interessante Informationen für ein adäquates VDI-Sizing zu sammeln.
- Atlantis ILIO: Atlantis ILIO ist eine Lösung zur Reduktion von IOPS und damit vor allem im VDI-Umfeld interessant, wo viele gleichartige IOPS auf einem Storage-System generiert werden. ILIO funktioniert dabei wie eine Art Deduplizierungsfunktion für IOPS. Leider existiert die Lösung aktuell nur für VMware-Hypervisor.
Fazit zum BriForum 2011: Eine super Veranstaltung mit viel "Real-Life-Experience"...nicht gefärbt durch irgendwelche Hersteller. Absolut einen Besuch wert, allerdings nur für die "Techniker" unter uns.
Kommen wir jetzt noch kurz zu einer Ankündigung, die mich wirklich sehr freut: Der Citrix Provisioning Server 6 ist als Beta verfügbar. Warum finde ich das so toll? Weil der Provisioning Server 6 diverse neue Funktionalitäten bietet, die speziell das Image-Handling und Update verbessern. Hierbei möchte ich gerne auf eine Serie von Blog-Posts verweisen, die mein Kollege Christian Calov erstellt hat. Christian zeigt sehr ausführlich, welche neuen Funktionalitäten in der PVS6 Beta vorhanden sind und hat diese auch gleich schon mal angetestet! Kudos Christian...:
Des Weiteren sind neue Patches (E036 und E040) für den Provisioning Server 5.6 SP1 veröffentlicht wurden, die Patch-Liste habe ich entsprechend aktualisiert. Obwohl dies aus dem CTX-Artikel nicht sofort ersichtlich ist, ersetzt zumindest Patch E036 zwei andere Patches. Ich hoffe, dass Citrix die entsprechend veralteten Patches (E017 / E019) dann bald zumindest noch als "SUPERSEDED" kennzeichnet, was aktuell leider nicht der Fall ist. Allerdings enthalten beide Patches mittlerweile die Datei aus Patch E036 als Download-Anhang. Patch E040 ist ebenfalls etwas speziell, darf dieser doch nur installiert werden, wenn Hotfix E029 (Kompatibilität zu XD5) installiert ist. Ist dies nicht der Fall, muss weiterhin Patch E008 installiert werden.
VG, Jörn
Abonnieren
Posts (Atom)