Montag, 6. Januar 2014

Alles Neu macht 2014...

Genau so sieht es aus :-)  Und deshalb zunächst allen Besuchern ein frohes und gesundes neues Jahr 2014. Zumindest inhaltlich wird sich dieses Jahr hier wieder einiges tun. Nach einer kreativen Schaffenspause bedingt vor allem durch den Wechsel des Arbeisplatzes werde ich dieses Jahr den Blog wiederbeleben.

Dabei wird es inhaltlich natürlich um das Thema Cloud-Computing gehen, genauso, wie der Name des Blogs es vermuten lässt. In den letzten  1,5 Jahren habe ich mich als Cloud-Architekt bei der Firma Citrix Systems vor allem mit den hauseigenen Cloud-Produkten CloudPlatform und CloudPortal Business Manager beschäftigt. Mittlerweile bin ich als Solution Engineer Cloud Architekturen bei dem Systemhaus Fritz & Macziol angestellt. In dieser Funktion kümmere ich mich neben den genannten Cloud-Produkten von Citrix auch um die Cloud-Produkte der Firmen vmware und Micrsoft. Warum diese breite Aufstellung und keine Spezialisierung?

Nun, gerade im europäischen Markt ist die Skepsis gegenüber den großen Public-Cloud-Anbietern aus Übersee weiterhin vorhanden - Prism sei Dank -, so dass das Hybrid- bzw. Private-Cloud-Modell stärker in den Vordergrund rückt. Und jeder der genannten Hersteller hat hierfür Lösungen parat. Dazu kommt der Wunsch vieler Unternehmen, vorhandene virtuelle Infrastrukturen in Cloud-Infrastrukturen zu überführen, die oftmals auf einem Hypervisor der genannten Hersteller basieren. Die Wahlmöglichkeiten sind also vielfältig. Wie aber gehe ich diese Herausforderung an? Welche Lösung ist die beste bzw. sinnvollste? Was geht, was geht nicht? Was machen andere? Welche Ziele kann ich schnell erreichen, welche erfordern mehr Aufwand? Einen oder mehrere Hypervisor?

Es gibt soooo viele Fragen, die im Vorfeld einer Einführung völlig hersteller-neutral beantwortet werden können, die zunächst in keinem direkten Zusammenhang mit der technischen Lösung stehen. Oder wie es meine amerikanischen Ex-Kollegen bei Citrix kurz und prägnant beschrieben haben: "Usecases first!" . Das bedeutet nichts anderes, als das man sich vor Einführung einer Cloud-Lösung genaue Gedanken über das "Wieso" machen sollte, erst danach folgt das "Wie".

Und genau dafür bin ich unter anderem da ;-). Die Frage nach dem Wieso zu beantworten. Auch das wird ein Fokus dieses Blogs sein.

Ich freue ich mich sehr auf diese Herausforderung, denn meines Erachtens gibt es im Cloud-Computing kein "One-Size-Fits-All". Und genau das macht meine Aufgabe in 2014 (und hoffentlich auch danach) so spannend.

Einen guten Start und alles Gute für 2014.

Jörn

Mittwoch, 25. April 2012

Das C-L-O-U-D Schichtenmodell und die Layer 1 + 2: Storage und Netzwerk-Virtualisierung (Zweitveröffentlichung)...

Hi, mal wieder ein Update, was nicht heisst, dass ich faul war: Das Bloggen konzentriert sich aktuell aber mehr auf den Blog meines Arbeitgebers, so dass ich meine eigene Plattform hier in letzter Zeit leider etwas vernachlässigen musste. Dieser Blog-Post ist deshalb auch die Kopie meiner drei letzten Posts aus dem CloudMACHER-Blog. Happy reading... Und wer mit mir persönlich über den Kram, den ich hier veröffentliche, diskutieren will, der kann das z.B. im Rahmen des CloudMACHER-Events (kostenfrei) tun: Anmeldung CloudMACHER Hannover

Serie C-L-O-U-D (1.): Cloud in Scheiben - Das C-L-O-U-D-Schichtenmodell

In meinem ersten Blog-Post zum Thema Cloud Computing habe ich darüber nachgedacht, ob dies wirklich ein fundamentaler Wechsel in der IT-Strategie für Unternehmen ist oder doch nur ein Marketing-Hype. Das Ergebnis ist aus meiner Sicht eindeutig: Cloud Computing bedeutet definitiv einen fundamentalen Wechsel in der IT-Strategie von Unternehmen, bietet es doch diverse Vorteile:
  • Typischerweise deutlich flexiblere und dynamischere IT-Infrastrukturen,
  • Höhere Transparenz, 
  • Bedarfsgerechte Bereitstellung und Nutzung von Kapazitäten, 
  • Eine Fokussierung auf Services. 
Man könnte sogar so weit gehen und die These aufstellen, dass Cloud Computing der beste Weg ist, um ITIL-Prozesse in Unternehmen in die Tat umzusetzen. Bleibt also nur noch die Frage zu klären, wie  sich Unternehmen diesem sehr komplexen und teilweise auch sehr abstrakten Thema Cloud Computing annähern können? Um diese Frage zu klären, ist es meines Erachtens sehr wichtig, genau einordnen zu können, welche Komponenten für die Etablierung einer Cloud-fähigen Infrastruktur notwendig sind. Darüber hinaus ist es  erforderlich zu verstehen, dass ein Großteil dieser Komponenten in einem direkten Zusammenhang bzw. einer direkten Abhängigkeit zueinander steht.
Verdeutlicht wird dies durch das nachfolgende C-L-O-U-D-Schichtenmodell:




Das Modell zeigt neben den verschiedenen Ebenen einer Cloud-Infrastruktur auch die Abhängigkeiten zwischen eben diesen. Eine zusätzliche Gruppierung  der Ebenen zeigt auf, dass diese typischerweise übergreifend/zusammenhängend betrachtet werden sollten. Bei genauerer Betrachtung des  Modells, lassen sich aus meiner Sicht die  „goldenen“ Regeln für den Aufbau einer C-L-O-U-D-Infrastruktur ableiten:
  • Eine durchgehende Virtualisierung auf den verschiedenen Ebenen des C-L-O-U-D Delivery Blocks ist zwingend notwendig und Basisvoraussetzung für den Aufbau einer Cloud-Infrastruktur.
  • Der C-L-O-U-D Delivery Block ist als Einheit zu verstehen und bildet die Basis der Infrastruktur. Eine Einzelbetrachtung der verschiedenen Ebenen ist zwar grundsätzlich möglich, für den Aufbau einer Cloud-Infrastruktur müssen diese aber in einem übergreifenden Ansatz gemeinsam betrachtet werden.
  • Der/die C-L-O-U-D Delivery Block(s) werden durch den Cloud Service-Orchestration Layer übergreifend verwaltet/gesteuert. Die in dieser Ebene befindlichen Komponenten bilden  quasi das Herzstück der Cloud-Infrastruktur.
  • Die oberhalb des Service-Orchestration Layers liegenden Ebenen integrieren erweiterte Automatisierungsfunktionen (sofern diese in den Komponenten des Service-Orchestration Layers nicht enthalten sind) sowie Komponenten für die Transformation von Geschäftsprozessen in IT-Prozesse.
  • In ihrer Gesamtheit bilden die verschiedenen Management Komponenten den C-L-O-U-D-Management-Block, der dafür verantwortlich ist, die Cloud-Infrastruktur „sichtbar“ und „lebendig“ zu machen. Zumindest der Cloud Service-Orchestration Layer ist als Pflichtkomponente zu verstehen.
  • Um auf die Cloud-Infrastruktur zugreifen zu können, werden typischerweise Access- und Client-Komponenten benötigt. Je nach Typ/Definition der Cloud (Private/Community, Hybrid, Public) ist eine Betrachtung dieser Komponenten mehr oder weniger notwendig.

Ich hoffe, dass ich mit dem C-L-O-U-D-Schichtenmodell  etwas Licht ins Dunkel des Cloud Computing bringen kann. In zukünftigen Blog-Posts werde ich auf die einzelnen Ebenen des Schichtenmodells näher eingehen, verfügbare Produkte bewerten/gegenüberstellen und vielleicht auch schon über erste Praxiserfahrungen berichten können.

Serie C-L-O-U-D (2.): Delivery-Block (Storage-Virtualisierung)

In meinem letzten Blog-Post habe ich das C-L-O-U-D Schichtenmodell vorgestellt und versprochen, auf die einzelnen Schichten näher einzugehen. Dieses Versprechen möchte ich heute  einlösen und mit der untersten Schicht des Delivery-Blocks beginnen, dem Storage Virtualization Layer.

Storage-Hersteller und Systeme gibt es mittlerweile wie Sand am Meer und erfahrungsgemäß hat jeder Kunde in diesem Umfeld eine eigene Präferenz. Neben den klassischen Hardware-Anbietern bzw. System-Lieferanten gibt es inzwischen auch immer mehr auf Software basierende Lösungen, die vorhandene Storage-Systeme um zusätzliche Funktionen erweitern. Welche dieser verschiedenen Lösungen, bezogen auf den Aufbau einer Cloud-Infrastruktur, sinnvoll einzusetzen sind und welche Funktionen in den Storage-Systemen für Cloud-Computing wirkliche Relevanz haben, möchte ich mit diesem Blog-Post aufzeigen.
Bevor ich mich jedoch intensiver mit dem Thema des Storage Virtualization Layer beschäftige, ist es aus meiner Sicht erforderlich, sich noch einmal die typischen Eigenschaften einer Cloud-Infrastruktur ins Gedächtnis zu rufen:
  • Eine Cloud-Infrastruktur ist hochdynamisch, um nicht zu sagen elastisch. Sie kann in alle Richtungen (und somit auch in allen zum Einsatz kommenden Komponenten) skalieren und stellt die verfügbaren Ressourcen bei Bedarf zur Verfügung.
  • Eine Cloud fokussiert größtenteils auf die Bereitstellung von Services, was typischerweise eine hohe Integration der einzelnen Komponenten erfordert. Darüber hinaus gibt es für Services zumeist klare Nutzungs- und Verfügbarkeitsanforderungen (Service-Level), die durch alle Komponenten sichergestellt werden müssen. Idealerweise unterstützen die Komponenten die Definition qualitativ unterschiedlicher Service-Level pro Service.
  • Eine Cloud-Infrastruktur wird normalerweise gleichzeitig von mehreren Mandanten genutzt. Diese müssen in allen Ebenen und Komponenten voneinander isoliert sein. Durch die gemeinsame Nutzung der verfügbaren Ressourcen soll eine optimierte Ressourcen-Auslastung erreicht werden, wodurch die Wirtschaftlichkeit der Infrastruktur gesteigert werden kann.
Neben diesen allgemeingültigen Punkten, die von allen eingesetzten Komponenten unterstützt werden müssen, sollte das Storage-System einer Cloud-Infrastruktur idealerweise aber auch einige spezifische Funktionalitäten aufweisen. So werden auf einem Cloud-Storage im Regelfall Objekte unterschiedlicher Art gespeichert, durch die verschiedene Anforderungen an das Storage-System entstehen. Typische Objekte einer Cloud-Infrastruktur sind:
  • Virtuelle Maschinen
  • Snapshots
  • Templates
  • ISOs
Idealerweise unterstützt das Storage-System ein sogenanntes „Multi-Tiering“, also die Definition unterschiedlicher Storage-Bereiche für die verschiedenen Objekttypen der Cloud-Infrastruktur. Diese Definition bezieht sich dabei hauptsächlich auf die gleichzeitige Verwaltung verschiedenartiger Disk-Typen wie SAS, SATA oder SSD, in Kombination mit der flexiblen Nutzung von unterschiedlichen Storage-Protokollen wie iSCSI, FC, FCoE oder NFS durch das Storage-Management. Durch die Kombination von Disk-Typ und Storage-Protokoll ist es beispielsweise möglich, den Nutzern der Cloud-Infrastruktur unterschiedliche Service-Level auf der Storage-Ebene anzubieten. Benötigt der Mandant z.B. nur einen Webserver für Entwicklungszwecke, kann er die Disk dieses Webservers auf einem kostengünstigen, aber langsameren SATA-Storage speichern, welches z. B.  über iSCSI angesteuert wird. Benötigt er zusätzlich noch einen produktiven Datenbank-Server, kann er die Disk für dieses System einfach auf den SAS-Bereich speichern, der wiederum über FC angebunden ist.
Weitere Kriterien für das Storage-System einer Cloud-Infrastruktur sind (je nach Einsatz-Zweck):
  • Deduplikation (reduziert das notwendige Storage-Volumen der Cloud-Infrastruktur)
  • Integrierte High-Availability bzw. Replikations-Mechanismen (notwendig für die Abbildung kritischer Systeme)
  • Hypervisor-Integration (vereinfacht das Storage-Management)
  • API-Schnittstelle (für Automatisierungsroutinen)
Nach dieser Aufzählung (die nur eine Auswahl darstellt und mit der ich keinen Anspruch auf Vollständigkeit erhebe) existieren sicherlich immer noch viele Hersteller und Systeme am Markt, die die gewünschten Funktionen auf die eine oder andere Weise unterstützen.
Exemplarisch möchte ich an dieser Stelle auf zwei Lösungen etwas genauer eingehen, die unterschiedlicher nicht sein könnten, die aber beide im Kontext von Cloud-Computing bereits sehr erfolgreich eingesetzt werden. Einerseits sind dies die Systeme der Firma NetApp, die bereits seit Jahren den Ansatz größtmöglicher Flexibilität, z.B. hinsichtlich der Protokoll-Unterstützung, verfolgen. Andererseits ist es das Openstack Object Storage (Codename Swift), das Software-basierende Storage-System des Openstack Open-Source-Projektes.
NetApp bietet in seinen Storage-Systemen seit Jahren die Möglichkeit der gleichzeitigen Nutzung unterschiedlicher Storage-Protokolle. Vor einiger Zeit wurde dieser Ansatz um die Möglichkeiten des Multi-Tierings sowie die Nutzung sogenannter Unified-Adpater in den NetApp-Management-Systemen erweitert. Diese bieten die Fähigkeit, mehrere Storage-Protokolle gleichzeitig über einen physikalischen Adapter zur Verfügung zu stellen, was das Management und das Systemdesign des Storage-Systems weiter vereinfacht, ohne die Flexibilität zu beeinträchtigen. Darüber hinaus bietet NetApp integrierte Möglichkeiten zur Isolation von Mandanten (vFiler) und optimiert den Speicherbedarf, z.B. durch die Bildung von Speicherpools (FlexVols) und integrierte Deduplikations-Technologien.
Die NetApp-Systeme bestehen aus ideal aufeinander abgestimmter Hard- und Software. Besonders interessant für das Cloud-Umfeld: NetApp bringt seine Storage-Kompetenz in den Flexpod ein, ein stark standardisiertes System aus NetApp-Storage-Systemen, Cisco-Servern, Netzwerk-Komponenten und VMware vSphere: Sozusagen ein fertiger
C-L-O-U-D-Delivery-Block, der von den beteiligten Unternehmen gemeinsam zu attraktiven Preisen vermarktet und auch supported wird.
Einen gänzlich anderen Ansatz verfolgt das Software-basierte Openstack Object Storage „Swift“, welches aus Standard-Servern ein geclustertes und somit hochverfügbares und theoretisch unendlich skalierbares Cloud-Storage erzeugt. Fällt ein Cluster-Knoten aus, kann dieser einfach durch einen neuen Knoten ersetzt werden. Entsprechende Replikations-Mechanismen sind in „Swift“ standardmäßig enthalten.





Objekte werden je nach Design automatisch an mehreren Stellen gespeichert und sind somit redundant enthalten. Damit verfolgt das Projekt einen sehr interessanten Ansatz, der zudem dem typischen Open-Source-Gedanken folgt: Mit einem relativ geringem Einsatz von Mitteln, soll durch eine intelligente Lösungen ein Maximum an Funktionalität erreicht werden.
Ich bin sehr gespannt darauf, welcher Ansatz sich final durchsetzen wird oder ob es eventuell doch eine Mischung verschiedener Lösungen geben wird. Diesbezüglich wird viel von dem die Hardware-Ressourcen überspannenden Management abhängen bzw. von den spezifischen Anforderungen der Kunden. Die Frage ist auch, ob europäische bzw. speziell deutsche Unternehmen überhaupt den Einsatz eines aktuell hauptsächlich in den USA verbreiteten Open-Source-Projektes in Betracht ziehen. Aber dazu später mehr in einem weiteren Blog-Post.

Serie C-L-O-U-D (3.): Delivery-Block (Netzwerk-Virtualisierung)

In meinem letzten Blog-Post zum C-L-O-U-D Schichtenmodell ging es um die unterste Ebene des C-L-O-U-D Delivery-Blocks, die Storage-Virtualisierung. Die nächst höhere Schicht ist die der Netzwerk-Virtualisierung, die Thema des heutigen Blog-Posts ist. Ich möchte an dieser Stelle gleich vorweg nehmen, dass dieser Ebene meiner Meinung nach eine ganz besondere Bedeutung zukommt. Warum? Weil jeder IT-Administrator bzw. jeder mit IT-Infrastrukturen Beschäftigte weiß, dass ein „vernünftiges“ Netzwerk die Basis für eine performante und verlässliche IT-Infrastruktur darstellt - und dies gilt umso mehr in hochdynamischen Cloud-Infrastrukturen.

Das nachfolgende Video von Intel unterstützt diese These und vermittelt noch einmal auf anschauliche Art und Weise, warum die Virtualisierung von Netzwerken für Cloud-Infrastrukturen ein Muss ist:



Welche Kern-Aussagen bzgl. Cloud-Infrastrukturen können wir aus dem Video mitnehmen:
  • „Unified Networking“: Durch die Definition von „Channels“ ist es möglich, auf einer einzigen physikalischen Verbindung unterschiedliche Protokolle (Netzwerk / Storage) parallel zu nutzen.
  • „Wider and smarter pipe“: Durch die Unterstützung von 10GBit ist eine optimale Bereitstellung von Netzwerk-Ressourcen (z.B. Bandbreite), abhängig vom Bedarf der virtuellen Maschine (Workload) möglich.
Das Fazit aus dem Video:
  • „No more Over-Engineering of DataCentres“: Die zuvor genannten Technologien verhindern also eine „Über-Dimensionierung“ des Rechenzentrums, sorgen sie doch für eine bessere Auslastung der verfügbaren Netzwerk-Ressourcen sowie eine bedarfsgerechte Bereitstellung und eine Reduktion der notwendigen Hardware durch gleichzeitiger Nutzung mehrerer Protokolle auf einer Verbindung.
Hört sich super an und ist es im Prinzip auch. Aber wie kann man das Ganze denn nun wirklich in die Tat umsetzen? Dies gestaltet sich „wie so oft“ nicht immer einfach, sondern bedarf typischerweise einer sorgfältigen Planung, denn:
  • Eine Cloud-Infrastruktur entsteht selten auf der „grünen Wiese“, sondern wird zumeist aus einer bestehenden IT-Infrastruktur heraus „geboren“.
Bezogen auf das Netzwerk, ist dieser Umstand eine besondere Herausforderung. Warum? Weil das Netzwerk quasi das Rückenmark der IT-Infrastruktur ist – sämtliche Fäden laufen hier zusammen, eine Störung oder Fehlfunktion an dieser Stelle kann vielfältige Auswirkungen haben und niemand weiß ganz sicher, welche Konsequenzen eine Änderung wirklich nach sich zieht.
Deshalb ist es wichtig, sich mit den verschiedenen technischen Komponenten der Netzwerk-Virtualisierung vertraut zu machen, um dann die richtigen Entscheidungen zu treffen und sein Netzwerk Stück für Stück „Cloud-ready“ zu machen.
Die zentrale Schnittstelle in der Netzwerk-Virtualisierung ist der virtuelle Switch im Hypervisor. Dieser abstrahiert die physikalisch am Virtualisierungs-Host anliegenden Netzwerk-Verbindungen und stellt sie den virtuellen Maschinen zur Verfügung. Mittlerweile gibt es virtuelle Switches mit extrem umfangreichen Funktionen, die ihren physikalischen Geschwistern oftmals nicht mehr nachstehen bzw. teilweise vom Funktionsumfang bereits überlegen sind. Besonders hervorzuheben ist hierbei der Cisco Nexus 1000V, der aktuell bereits von dem Hypervisor VMware vSphere unterstützt wird und zukünftig auch mit der neuen Version von Microsofts Hypervisor Hyper-V (ab der Version 3.0, verfügbar mit Windows Server 2012) kompatibel sein soll.
Andere Hersteller oder Hypervisor, z.B. Citrix ab XenServer Version 6.0 oder KVM, setzen auf den Open vSwitch, einen frei verfügbaren virtuellen Switch, der seit der Linux Version 3.3 sogar Bestandteil des Linux Mainline Kernels ist.
Aber egal welcher virtuelle Switch zum Einsatz kommt, die Funktionen, die sie für den Aufbau einer Cloud-Infrastruktur unabdingbar machen, sind oftmals die gleichen. Vor allem wird die Möglichkeit geschätzt, komplexe Netzwerk-Infrastrukturen bereits auf der Ebene der Virtualisierungs-Hosts abbilden zu können. Denn nur so kann eine saubere Trennung  unterschiedlicher Mandanten auf dem Hypervisor erreicht werden, wie sie z.B. von Zertifizierungs-Instanzen wie dem BSI oder ISO für multi-mandantenfähige IT-Infrastrukturen gefordert wird. Des Weiteren sorgen die virtuellen Switches dafür, dass alle definierten Netzwerk-Richtlinien, z.B. auch nach einer vollautomatischen Migration einer virtuellen Maschine, im Fehlerfall wieder angewendet werden. Wichtig für viele Kunden ist auch die Transparenz und Nachvollziehbarkeit des Netzwerk-Verkehrs zwischen VMs, z.B. im Rahmen einer Fehleranalyse, die durch die Unterstützung von Protokollen wie NetFlow und sFlow gegeben ist. Oftmals lassen sich auch QoS-Regeln definieren, die vor allem bei einem Unified-Networking-Ansatz unverzichtbar sind. Des Weiteren bieten die virtuellen Switches bereits heute eine Unterstützung für auf zukünftige Anforderungen ausgerichtete Netzwerktechnologien wie IPv6 oder VXLAN.
Sollten zusätzliche Netzwerk- und Sicherheits-Mechanismen gefordert sein, kann Cisco ebenfalls punkten, lässt sich der virtuelle Switch Cisco Nexus 1000V doch durch zusätzliche Komponenten z.B. um Load-Balancing- oder Firewall-Funktionen erweitern.
Eine Kombination unterschiedlichster Netzwerk-Funktionen bietet der Hersteller Vyatta mit seinem Network OS an, dass mittlerweile mit den gängigsten Virtualisierungslösungen eingesetzt werden kann. In Kombination mit Produkten des Herstellers Citrix ist zusätzlich eine interessante Lösung entstanden: Der vNetworkStack fasst verschiedene virtuelle Appliances beider Hersteller zusammen und stellt auf allen Ebenen des OSI-Modells Funktionen im Netzwerk zur Verfügung.
Zusammengefasst bleibt festzuhalten, dass die virtuellen Switches im Zusammenspiel mit dem Hypervisor zentrale Komponenten bei der Virtualisierung von Netzwerken sind. Ihre volle Leistung können Sie allerdings nur dann entfalten, wenn auch die zugrundeliegende Hardware entsprechend „mitspielt“. In diesem Umfeld bietet mittlerweile fast jeder Hersteller von Netzwerk-Komponenten entsprechende Produkte. Allerdings möchte ich an dieser Stelle noch einmal auf den Hersteller Cisco hinweisen, der in seinen DataCentre-Produkten sein langjähriges Netzwerk Know-How einfließen lässt und damit eine hochinteressante Hardware-Plattform für den Aufbau von Cloud-Infrastrukturen darstellt. Aber dazu mehr im nächsten Blog-Post zum C-L-O-U-D Schichtenmodell.

Dienstag, 21. Februar 2012

C-L-O-U-D - Das geheimnisvolle Akronym ... Zweitveröffentlichung

Hallo zusammen,

an dieser Stellemöchte ich einmal kurz Werbung machen, und zwar für den neuen Cloud-Computing-Blog meines Arbeitgebers, der COMPAREX Deutschland AG.

In dem neuen CloudMACHER-Blog erscheint ab sofort jeden Dienstag ein neuer Blog von mir oder meinen Kollegen zum Themenkomplex Cloud-Computing. Ich werde meine eigenen Blog-Posts mit einem kurzen zeitlichen Versatz ebenfalls hier auf Cloudfected.com veröffentlichen. Hier nun also auf der Auftakt-Post zu einer Serie von Blog-Posts zum Thema Cloud-Computing....happy reading!

C-L-O-U-D – das geheimnisvolle Akronym 

Was bedeutet Cloud? Stellt man diese Frage zehn unterschiedlichen Personen, so ist es nicht unwahrscheinlich, dass man darauf zehn komplett verschiedene Antworten erhält. Der Musikdienst SoundCloud, der iCloud-Service von Apple oder die Telekom-Cloud haben über die Medien den Weg in die Köpfe der Menschen gefunden. All diese Dienste zeigen den Nutzen und die Möglichkeiten von Cloud Computing für den Privatanwender. Aber was bedeutet Cloud Computing für Unternehmen bzw. der Unternehmens-IT?

Ist es nur die konsequente Weiterentwicklung und verstärkte Nutzung bekannter Virtualisierungs-Technologien oder ist es eine grundlegend andere Art und Weise, wie Unternehmen zukünftig ihre IT-Infrastruktur planen und betreiben werden? Das folgende Akronym von CLOUD beschreibt dabei die Vorteile des Cloud Computings für Unternehmen aus meiner Sicht relativ gut:

C-L-O-U-D: Change Localized Oversized Underperforming DataCentres
 
Cloud Computing verändert also in der Tat die Art und Weise, wie Unternehmen ihre IT-Infrastruktur – und damit ihre Rechenzentren - in der Zukunft planen und betreiben. Künftige Lösungen können durch aktuelle Cloud-Management-Systeme relativ einfach auf mehrere, auch weit voneinander entfernte Rechenzentren ausgeweitet und trotzdem von zentraler Stelle verwaltet werden. Die verschiedenen Kapazitäten in den Rechenzentren (Storage, Netzwerk, Rechenleistung, Internet-Bandbreite, etc.) werden optimiert ausgelastet bzw. den Systemen zugewiesen, die sie gerade benötigen. Jedes in einer Cloud-Infrastruktur betriebene System erhält genau die Kapazität, die es benötigt bzw. für dies es definiert ist; nicht mehr – aber auch nicht weniger. Somit erzielen die Systeme einer Cloud zumeist die optimale, zumindest aber die durch den Benutzer / Kunden angeforderte Leistung. Auch dies ist ein besonderer Aspekt und aus meiner Sicht auch ein großer Vorteil von Cloud-Infrastrukturen: Sie machen den Benutzern / Kunden transparent, für was Sie ihr Geld ausgeben.

Die Basis für diese Transformation zu einer dynamischen, sich den Anforderungen und Wünschen der Benutzer / Kunden anpassenden IT-Infrastruktur, bildet  die bereits erwähnte Virtualisierung, die allerdings möglichst durchgehend realisiert werden muss. Deshalb habe ich ein Schichtenmodell erstellt, welches die unterschiedlichen Ebenen einer Cloud-Infrastruktur visualisiert und näher beschreibt. Details dazu werde ich in Zukunft an dieser Stelle in einer Serie von Blog-Posts veröffentlichen und damit sowohl auf die Herausforderungen als auch auf einige der aktuell verfügbaren Lösungen / Lösungsansätze tiefer eingehen.

In diesem Sinne, happy C-L-O-U-D-Computing...der nächste Blog-Post der Serie ist schon in Vorbereitung!

P.S.: Die Links zum CloudMACHER-Blog und noch ein paar andere interessante Links (z.B. zu meinen veröffentlichten Fachartikeln in der LanLine) findet ihr ab sofort über die Link-Seite...

Wünsche noch eine erfolgreiche Woche,

Joern

Dienstag, 3. Januar 2012

HowTo: Selbst-signiertes Zertifikat für Citrix Merchandising Server mit OpenSSL

Hallo zusammen und erst mal ein frohes, gesundes neues Jahr!

Der erste Post im Jahr 2012 dreht sich um das Thema Citrix Merchandising Server, die zentrale Verwaltungs- und Rollout-Instanz für den Citrix Receiver für Windows sowie die darauf aufsetzenden Plug-Ins. Dabei geht es nicht um den Merchandising Server an sich (das kommt ev. in einem anderen Post gekoppelt mit dem Receiver für Windows), sondern konkret um das Problem, dass das interne, selbst-signierte Zertifikat des Merchandising Servers nur eine Laufzeit von 30 Tagen hat. Somit muss man sich also bei der Implementierung des Merchandising Servers auf jeden Fall gedanken darüber machen, wie man dieses Zertifikat kurzfristig ersetzt. Da nicht jeder Kunde von Citrix eine interne CA hat oder diese nur für den Merchandising Server aufbauen möchte, ggf. aber auch nicht bereit ist, ein kostenpflichtiges Zertifikat von einer externen CA zu erwerben, bleibt noch der Weg über ein selbst-signiertes Zertifikat mit verlängerter Laufzeit. Dieser Blog-Post zeigt, wie dieses Zertifikat mittels OpenSSL für Windows erstellt werden kann.

Generelle Infos zu OpenSSL:
Homepage des OpenSSL-Projektes: http://www.openssl.org/
Download von OpenSSL (1.0.0e) für Windows: http://www.slproweb.com/products/Win32OpenSSL.html

Anleitung:

Die Installation von OpenSSL kann auf jedem aktuell unterstützten Windows-Betriebssystem erfolgen. Der Installer entpackt die Daten standardmäßig in den folgenden Ordner: C:\OpenSSL-Win32
OpenSSL wird grundsätzlich aus der Kommandozeile genutzt. Die ausführbare Datei (openssl.exe) befindet sich im Unterordner „bin“ C:\OpenSSL-Win32\bin
Nachfolgend wird die Konfiguration eines selbst-signierten Zertifikats mit einer Laufzeit von drei Jahren mit Hilfe von OpenSSL für Citrix Merchandising Server dokumentiert:
Hinweis: Die Namen der Dateien sollten nicht verändert werden, da diese in der Logik des Merchandising-Servers fest hinterlegt sind.


Zunächst muss ein privater Schlüssel erzeugt werden.
Kommandozeilen-Befehl:
openssl genrsa -des3 -out server.key 1024


Für den privaten Schlüssel muss zunächst ein Passwort vergeben werden (dies wird im Nachhinein wieder entfernt). Die Eingabe des Passworts wird nicht angezeigt.


Nach erfolgreicher Erstellung befindet sich die Datei server.key in dem Verzeichnis C:\OpenSSL-Win32\bin
Der zweite Schritt ist die Erstellung eines „Certificate-Signing-Requests“ (CSR), der später, im finalen Schritt, für die Erstellung des eigentlichen Zertifikats notwendig ist. Hierfür müssen bestimmte Informationen eingegeben werden.
Kommandozeilen-Befehl:
openssl req -new -key server.key –config C:\OpenSSL-Win32\bin\openssl.cfg -out server.csr
Einzugebende Informationen:
Country Name (2 letter code) [AU]: DE
State or Province Name (full name) [Some-State]:Bayern
Locality Name (eg, city) []: Augsburg
Organization Name (eg, company) [Internet Widgits Pty Ltd]: Musterfirma GmbH
Organizational Unit Name (eg, section): IT
Common Name (eg, YOUR name) []: receiver.kbs.drv
Email Address []: helpdesk@musterfirma.de
A challenge password []: XXXX
An optional company name []: .


Im nächsten Schritt wird das Passwort des privaten Schlüssels entfernt. Hierzu wird zunächst die Datei server.key in server.key.tmp umbenannt.
Kommandozeilen-Befehl:
Ren server.key server.key.tmp

Anschließend wird mit dem folgenden Befehl eine Kopie der Datei server.key.tmp ohne Passwortschutz erstellt:
Kommandozeilen-Befehl:
openssl rsa -in server.key.tmp -out server.key


Abschließend wird auf Basis des nun ohne Passwort geschützten privaten Schlüssels das eigentliche Zertifikat erstellt.
Kommandozeilen-Befehl:
openssl x509 -req -days 365 -in server.csr -signkey server.key -out server.crt

Die erzeugten Dateien (server.key, server.crt und server.crt) müssen nun auf den Merchandising Server in das folgende Verzeichnis kopiert werden: /etc/httpd/conf (z.B. per WinSCP). Aus Sicherheitsgründen sollten die bestehenden Dateien auf dem Merchandising-Server vor dem Ersetzen gesichert werden.
Um die Dateien transferieren zu können, muss auf dem Merchandising-Server (an der Konsole) der SSH-Daemon gestartet werden.
Kommandozeilen-Befehl (Merchandising Server):
/etc/init.d/sshd start


 
Hinweis: Durch den Befehl wird einmalig der Dienst „ssh“ gestartet. Nach dem abschließenden Reboot ist der Dienst wieder inaktiv. Um diesen dauerhaft zu aktivieren, sind weitere Anpassungen notwendig.
Nach dem Transfer der Dateien muss der Merchandising Server per-Reboot-Befehl neu gestartet werden.
Kommandozeilen-Befehl (Merchandising Server):
Reboot
 
In diesem Sinne, viel Erfolg beim Aktualisieren der Zertifikate des Merchandising Servers und eine schöne erste Restarbeitswoche in 2012.

VG,

Jörn



Donnerstag, 15. Dezember 2011

Design-Änderung...

Hallo, ich habe eine Design-Änderung durchgeführt, da die jetzt verwendete Vorlage deutlich mehr Funktionen unterstützt. Darüberhinaus habe ich die Menü-Struktur etwas optimiert. Hoffe es gefällt...

Viel Spaß mit dem aktualisierten Blog und noch eine schöne Restwoche...

Jörn


Mittwoch, 14. Dezember 2011

Aus Xenified wird Xenified and Cloudfected...

Guten Morgen zusammen,

das Jahr 2011 geht mit starken Schritten dem Ende entgegen und ich habe zum Ende des Jahres noch eine kleine Neuigkeit zu verkünden, die vor allem  für 2012 und generell für die Zukunft dieses Blogs wichtig ist:

Hier also die Neuigkeit: Dieser Blog ist nun über eine eigene Domain, Cloudfected.com, erreichbar (die alte URL xenified.blogspot.com geht natürlich auch weiterhin.)

Was bedeutet das für die Zukunft: Das Thema und die Inhalte dieses Blogs werden sich in 2012 signifikant erweitern, vor allem um das Thema Cloud-Computing. Meine Wurzeln habe ich natürlich immer noch in den klassischen / etablierten Citrix (Xen) Produkten und werde auch weiterhin über diese berichten, allerdings positioniert sich auch die Firma Citrix immer stärker als ein strategischer Anbieter im Cloud-Umfeld und dieser Entwicklung folge ich mit zuerst mit der Namens-Erweiterung und dann später mit der inhaltlichen Erweiterung dieses Blogs.

In diesem Sinne freue ich mich schon jetzt auf das nächste Jahr, wünsche allen Lesern noch eine frohe Vorweihnachtszeit und schon mal ein schönes Weihnachtsfest und einen guten Rutsch nach 2012.

VG

Jörn

Mittwoch, 21. September 2011

Citrix Provisioning Services Flowchart

Hallo zusammen,

nach langer Zeit mal wieder ein Update :-)....ich bitte um Entschduligung für die lange Wartezeit, aber viel Arbeit (sowohl Beruf als auch privat) haben mich vom Posten abgehalten. Dafür gibt es heute mal wieder was interessantes, und zwar zu einem meiner Lieblingsthemen: Citrix Provisioning Services.

Ich habe mir mal die Arbeit gemacht, ein Flowchart zu erstellen, was den Kommunikationsverlauf der Citrix  Provsioning Services darstellt.



Das Flowchart kann hier heruntergeladen werden: http://dl.dropbox.com/u/26016606/Xenified/PVS-Basic-Flowchart_V1.jpg

Ich hoffe, dem ein oder anderen hilft es weiter. Fragen oder Feedback sind natürlich willkommen.

VG,

Joern

Montag, 1. August 2011

Aktualisierung: Citrix Update- / Patch-Lists

Hi, kurze Info zum Wochenanfang: Ich habe die Patch-Liste aktualisiert bzw. erweitert. Hinzugekommen ist eine Patch-Übersicht für die Komponenten von Citrix XenDesktop 4. Zwar ist dieses Produkt nicht mehr der aktuellste Stand (wir sind mittlerweile bei XenDesktop 5), aber doch noch bei einigen Kunden im Einsatz. Demnächst werde ich die Patches auch direkt als Archiv zum Download anbieten, so dass jeder immer den aktuellen Stand für ein Produkt "En-Bloc" herunterladen kann und sich nicht durch die einzelnen Artikel klicken muss.

Wünsche eine schöne Woche...

VG, Jörn

Freitag, 22. Juli 2011

Ein paar Gedanken zu "Bring Your Own Computer / Device" (BYOC/D)

Guten Morgen,
aktuell beteilige ich mich an einer Diskussion im LanLine-Forum bzgl. des Konzeptes von "Bring Your Own Computer / Device". Aus Gründen der Lesbarkeit im Diskussionsverlauf habe ich meinen Beitrag für das Forum gekürzt und möchte an dieser Stelle den originalen, ungekürzten Text bereistellen. Feedback ist natürlich willkommen, sowohl hier als auch im LanLine-Forum (LanLine-Forum: Diskussion über BYO(C/D). Hier nun der originale Text:
***
Ist das Konzept sinnvoll? Nicht für alles und jeden (in der IT gibt es meines Erachtens kein „One Size fits all“), aber es gibt durchaus einige Anwendungsfälle. Ich denke da z.B. an Einrichtungen im Umfeld von Forschung und Lehre, aber auch an Unternehmen bzw. Unternehmensbereiche mit einer Projektorganisation. Überall, wo eine hohe Dynamik gefordert ist oder wo es darum geht, schnell Ergebnisse zu erzielen, stoßen die IT-Abteilungen mit ihren zum Teil aufwändigen Prozessen oft an ihre Grenzen. Dies bremst im schlimmsten Fall die Entwicklung von Unternehmen. Wollen die IT-Abteilungen aber ihre Relevanz behalten, müssen Sie ihr Verhalten ändern: Von „Nein, dass entspricht nicht unseren Standards“ hin zu „Ja, wir machen das möglich (unter folgenden Bedingungen)“. Wenn Sie das nicht tun, werden die Mitarbeiter Wege und Möglichkeiten finden, die Richtlinien der IT-Abteilungen zu umgehen z.B. durch Nutzung von Cloud-basierten Diensten / Angeboten.

Wer sind die Nutzer eines solchen Konzeptes: Zunächst mit Sicherheit die technikbegeisterten „Nerds“, wie es ein Vorredner so schön formuliert hat. Dazu kommen aus meiner Sicht noch die Management-Funktionen und sämtliche Nachwuchsführungskräfte, die sogenannten High-Potentials. Aber warum genau diese Gruppen? Weil diese Gruppen einfache Lösungen bevorzugen: Das Instant-On-Erlebnis von iPad und Co. schlägt kein Laptop / Netbook mit installiertem Windows. Die neuen Geräte sind klein und leicht, haben extrem lange Akkulaufzeiten und eine Usability, die ebenfalls nicht zu schlagen ist. Sie sind somit z.B. auch ideal für Studenten geeignet, die damit ihre Vorlesungen protokollieren können. Es bleibt also festzuhalten, dass die Generation, die heute in das Berufsleben eintritt, den täglichen Umgang mit dieser Art von Geräten gewöhnt ist. Warum soll ich mir als Unternehmen die Arbeit machen, die Benutzer umzugewöhnen? Warum ermögliche ich es den Benutzern nicht einfach, so zu arbeiten, wie Sie es aus Ihrer Freizeit kennen? Kommt ihnen dieses Szenario auch bekannt vor? Ich meine ich zu erinnern, dass ein Produkt namens „Windows“ genau diesem Effekt seinen Siegeszug in Unternehmen zu verdanken hat.

Werden rechtliche Hürden BYO(C/D) aufhalten: Definitiv nein! Das Konzept beschreibt aus meiner Sicht den Wunsch der Mitarbeiter nach mehr Flexibilität im Arbeitsalltag. Das ist für die Mitarbeiter doch etwas extrem positives, genauso wie Home-Offices, private Nutzung dienstlicher Mobiltelefone, Arbeitszeitkonten, Dienstwagen, private Nutzung von Flugmeilen, etc. All das ist heute Standard in Unternehmen, weil die Mitarbeiter nach solchen Lösungen verlangen. Und genauso werden BYO(C/D)-Konzepte in den nächsten Jahren Standard werden, egal welche rechtlichen Hürden dafür zu nehmen sind.

Wird BYO(C/D) der neue Standard für Unternehmen sein: Ebenfalls definitiv nein! Das Konzept ist eine Ergänzung zu bestehenden Lösungen in Unternehmen für eine ganz bestimmte Benutzergruppe. Für Task-Worker sind andere Lösungen definitiv sinnvoller.

Ist das Konzept heute bereits technisch umsetzbar: Defintiv ja, die Techniken sind alle vorhanden und im täglichen Alltag bereits erprobt! Die Basis dafür haben die meisten Unternehmen sogar bereits aktiv im Einsatz, nämlich eine Virtualisierungs-Infrastruktur. : Ergänzt man das Ganze nun noch um Appliaktions-Virtualisierung, schnelle und intelligente Provisioning-Verfahren, ein User Environment-Management, neue Sicherheitstechnologien und passt seine IT-Prozesse an, erhält man irgendwann eine Infrastruktur, die BYO(C/D) ermöglicht . Und jetzt im Ernst: Wie würde ein IT-Berater spontan auf die Frage antworten: „It depends“. Es hängt nämlich tatsächlich davon ab, was das Unternehmen bzw. die IT-Abteilung eigentlich genau erreichen will. Will es nur für eine kleine Handvoll Mitarbeiter die Nutzung von privaten Endgeräten ermöglich, gestaltet sich das Ganze zumeist nicht so schwierig / aufwändig. Will er aber seine gesamte Infrastruktur dynamischer gestalten und den wachsenden Ansprüchen von Mitarbeitern und Unternehmensführung auch in Zukunft gerecht werden, so sind die Anpassungen zumeist deutlich aufwändiger.

Was für Kosten entstehen: Wie bereits in dem Punkt zuvor gilt: „It depends“. Für fundamentale Änderungen an Infrastruktur und Prozessen entstehen natürlich zunächst auch hohe Investitionskosten. Wenn man es dann aber „richtig“ macht, können die operativen Kosten mittlel- bzw. langfristig zumeist deutlich gesenkt werden. Man denke nur mal an die Einsparpotenziale bei Stromkosten: Wer schaltet denn heute seinen stationären Rechner am Arbeitsplatz im Unternehmen noch aus?

Fazit: Ist BYO(C/D) für mich ein essentieller Treiber zur Veränderung der IT-Landschaft in Unternehmen. Ein klares JEIN? Wie bereits gesagt gibt es viele Unternehmen, die dadurch sehr viel „gewinnen“ können. Des Weiteren kann das Konzept eine Möglichkeit darstellen, sich vom Mitbewerb zu differenzieren, z.B. wenn es um die Akquise neuer Mitarbeiter geht. Denn wenn man diversen Zeitungsberichten und Studien Glauben schenken darf, ist der „Krieg“ um die High-Potentials ja schon entbrannt. Auf der anderen Seite wird es mit Sicherheit genauso viele Unternehmen geben, für die BYO(C/D) aktuell (und vielleicht auch in Zukunft) gar nicht in Frage kommt. Als Consultant kann ich mich eigentlich nur wiederholen und sagen: It depends.
***
Viele Grüße und ein schönes Wochenende,

Jörn

Donnerstag, 21. Juli 2011

BriForum Wrap-Up Day 2 (lange ist's her), neue Patches für PVS56SP1 und PVS 6 Beta

Hallo zusammen,
zuerst mal eine Entschuldigung, dass ich in letzter Zeit keine Updates geschrieben habe, aber ich bin aktuell sehr stark eingebunden in meinen Job und beschäftige mich nebenbei noch mit ein paar anderen Projekten, die relativ viel Zeit in Anpsruch nehmen. Mehr dazu aber demnächst hier in diesem Blog. Jetzt zu den Updates. Aktuell findet ja das BriForum in Chicago statt, was mich daran erinnert hat, dass ich noch den zweiten Teil schuldig bin. Neben den Sessions, über die ich bereits berichtet habe, waren auch einige interessante Hersteller vor Ort, mit denen ich zum Teil auch noch keine Berührungspunkte hatte. Dazu gehören:
Hier mein Kurzfeedback zu den Produkten / Herstellern:
  •  Quest, Produkt vWorkspace plus Mokafive: Scheint eine valide Alternative zu Citrix XenDesktop zu sein, günstiger im Preis, ähnlicher Funktionsumfang, sehr gutes Remote-Protokoll für viele Einsatzzwecke geeignet, zentrales Management. Mehr kann ich leider noch nicht beitragen, da ich bisher keine Zeit hatte, dass Produkt selber zu testen, aber es scheint defintiv mehr als einen Blick Wert zu sein.
  • XtremeIO: Ein StartUP-Unternehmen aus Israel, welches Rack-Mounted SSDs mit extrem hoher IO-Performance anbieten will. Sie versprechen sehr sehr viel, aber aob dies wirklich Realität ist / wird, muss sich noch beweisen. Und wo wir schon beim Thema sind. Nicolas Rintalan vom Citrix-Consulting Americas hat einen hoch interessanten Blog zum Thema VDI und SSDs geschrieben. Und mindestens genauso interessant wie der Blog selbst, sind die Kommentare: Link: Blog von Nicolas Rintalan
  • Centrix: Centrix ist ein englisches Unternehmen, welches eine Monitoring-Software für die Applikationsnutzung mit sehr guten Reporting-Funktionen anbietet. Mit der Software ist man in der Lage, Daten über die historische und aktuelle Applikations-Nutzung im Unternehmen zu sammeln und somit z.B. interessante Informationen für ein adäquates VDI-Sizing zu sammeln.
  • Atlantis ILIO: Atlantis ILIO ist eine Lösung zur Reduktion von IOPS und damit vor allem im VDI-Umfeld interessant, wo viele gleichartige IOPS auf einem Storage-System generiert werden. ILIO funktioniert dabei wie eine Art Deduplizierungsfunktion für IOPS. Leider existiert die Lösung aktuell nur für VMware-Hypervisor.
Noch ein kurzes Feedback zu den Sessions am zweiten Tag: Besonders in Erinnerung geblieben ist mir die Session von Jason Conger, "Extreme Makover of Citrix Web-Interface". Darin ging es um die Anpassung / Modifizierung des Citrix Web-Interface-Layouts an ein Cooperate Design. Was in diesem Umfeld mit Wissen über HTML bzw. ein wenig Erfahrung mit Web-Programmierung möglich ist, ist unglaublich. Ohne den Verlust von Funktionalität, kann das Citrix Web-Interface komplett modifiziert werden. Die beste Herangehensweise: Zunächst die gewünschte Citrix Web-Interface-Site von allen Grafiken bereinigen, so dass nur noch die funktionalen Elemente übrig bleiben. Dann das angepasste Design über diese funktionalen Elemente legen. Hört sich einfacher an, als es ist, aber möglich ist es allemal. Und das war imposant zu sehen.

Fazit zum BriForum 2011: Eine super Veranstaltung mit viel "Real-Life-Experience"...nicht gefärbt durch irgendwelche Hersteller. Absolut einen Besuch wert, allerdings nur für die "Techniker" unter uns.

Kommen wir jetzt noch kurz zu einer Ankündigung, die mich wirklich sehr freut: Der Citrix Provisioning  Server 6 ist als Beta verfügbar. Warum finde ich das so toll? Weil der Provisioning Server 6 diverse neue Funktionalitäten bietet, die speziell das Image-Handling und Update verbessern. Hierbei möchte ich gerne auf eine Serie von Blog-Posts verweisen, die mein Kollege Christian Calov erstellt hat. Christian zeigt sehr ausführlich, welche neuen Funktionalitäten in der PVS6 Beta vorhanden sind und hat diese auch gleich schon mal angetestet! Kudos Christian...:
Des Weiteren sind neue Patches (E036 und E040) für den Provisioning Server 5.6 SP1 veröffentlicht wurden, die Patch-Liste habe ich entsprechend aktualisiert. Obwohl dies aus dem CTX-Artikel nicht sofort ersichtlich ist, ersetzt zumindest Patch E036 zwei andere Patches. Ich hoffe, dass Citrix die entsprechend veralteten Patches (E017 / E019) dann bald zumindest noch als "SUPERSEDED" kennzeichnet, was aktuell leider nicht der Fall ist. Allerdings enthalten beide Patches mittlerweile die Datei aus Patch E036 als Download-Anhang. Patch E040 ist ebenfalls etwas speziell, darf dieser doch nur installiert werden, wenn Hotfix E029 (Kompatibilität zu XD5) installiert ist. Ist dies nicht der Fall, muss weiterhin Patch E008 installiert werden.
    Im nächsten Artikel werde ich mich mal dem Thema "Bring Your Own Computer / Device" (BYOC/D) widmen. Und dann wird es bestimmt auch wieder etwas technischer.

    VG, Jörn