Ich hatte heute eine Computerzeitschrift von 2004 in der Hand und konnte einfach nicht widerstehen auf den letzten Seiten nach den Hardwarepreisen zu gucken.
Ich staunte nicht schlecht; obwohl 2004 kaum vorbei ist hat sich doch schon einiges geändert 😉

Die größte, dort gelistete, externe Festplatte war 300GB groß und kostete auch knapp über 300€.

Schon interessant das mit den heutigen Standards von externen SATA2 Platten mit 1000GB für 82€, 1500GB für 134€ oder auch 2000GB für 170€ zu vergleichen.
Schaut man wiederum auf die Preisentwicklung von z.B. der 2000GB Festplatte LaCie Desktop Hard Drive 2000GB, die in 5 Monaten 20% günstiger geworden ist, dann können wir dieses unglaubliche Datenvolumen in einem Jahr ebenfalls für 100-130€ erwerben.
Für viele stellt sich spätestens hier die Frage wohin das ganze führt, wie die Datenspeicherung in 10 Jahren aussehen wird. In einem älteren Artikel von 2006 stand folgende Passage:

Die Entwicklung der Festplatten in den letzten Jahren hat wohl kaum jemand in dieser Form voraussehen können. Seit der Vorstellung der ersten Festplatte im Jahre 1956 hat sich die Performance um das Zehntausendfache und die Kapazität um den Faktor 100.000 erhöht.

Da sich das Speichervolumen alle 18 Monate verdoppelt könnte man diesen Vergleich umschreiben und den Faktor auf 200.000 seit 1956 erhöhen.
Doch wann wird der exponentielle Anstieg unmöglich werden, wann stellen sich die natürlichen Grenzen von Band-, Disk- und optischen Speichermedien in unseren Weg und vor allem, wie wird es dann weitergehen?
Ein Storage Strategist definierte 2004 in einem Artikel diese Grenzen recht verständlich:

Eines Tages werden wir uns mit des Phänomen des superparamagnetischen Effekts auseinandersetzen müssen, der dadurch entsteht, dass die Bits so nahe beieinander liegen, dass nicht länger zwischen ihnen unterschieden werden kann.

Bis jetzt wurde die Grenze ohne jegliche Probleme umgangen und es sieht so aus als wenn kein Ende in Sicht ist.
Eine Mögliche Richtung nach Flashspeicher, der sich mittlerweile durchgesetzt hat, wird wahrscheinlich die holografische Speicherung sein. Mit dieser Technik ist es möglich mithilfe von Licht Informationen in einem Medium zu speichern. Diese ermöglichen eine Informationsdichte, die bisher ungeschlagen ist. Bei dreidimensionalen Speichermedien wie z.B. Würfeln wäre dann das beschreiben des kompletten Volumens möglich, nicht nur der Oberfläche, wie bei herkömmlichen Diskspeichermedien.

Ein „Speicherwürfel“ mit 1cm Kantenlänge, kleiner als ein klassischer Spielwürfel (1,6cm Kantenlänge), könnte ein Speichervolumen von bis zu 493 Millionen Terabyte bzw. 493 Milliarden Megabyte besitzen. Diese Speicherdichte wäre in der Praxis um Größenordnungen niedriger, da noch Bits für Fehlerkorrektur benötigt werden und die Mangelhaftigkeit des optischen Systems ausgeglichen werden muss.

Man stelle sich aber nur die Möglichkeiten vor, die sich durch einen Durchbruch dieser Speichertechnik ergeben würde.

So und späätestens jetzt sollte sich jeder fragen, ob und vor allem wofür wir diesen Speicher benötigen? Werden wir später wirklich bis zu 400 Exabyte Datenspeicher gebrauchen?
Naja, das werde ich in einem Post um 2012-2030 wohl berichten können. 😉

Auf bald.

Letzte Woche fand ich auf mein Wegen durch das Netz ein interessantes Thema:
Photoshop Retouching
Wie oft lächeln einem Frauen aus Zeitschriften und Magazinen entgegen, wunderhübsch sind sie alle.
Doch was wir auf den Covern sehen können sind nie* die Personen, die einst dafür fotografiert wurden.

„Beauty is a product of photoshop“:
Photoshop Retouching Beispiel 1
Photoshop Retouching Beispiel 2
Photoshop Retouching Beispiel 3
Jetzt schaut in die Magazine und versucht diese Schicht in Gedanken zu entfernen, die dort virtuell aufgetragen wird. Wollen wir uns das überhaupt vorstellen? Manchmal ist ein Schwindel eben doch besser als die Wahrheit.
Absolute Schönheit ist eben mittlerweile zu einem Status geworden den man oft nur noch mit dieser Hilfe erreicht. Mit hübschen und glücklichen Menschen lässt sich eben kein Geld verdienen…

* Kann mir zumindest nicht vorstellen, dass es Zeitschriften gibt, die ihre Models ohne jegliche digitale Bearbeitung abdrucken.

Wollte nur das Wochenende nicht ohne Post verstreichen lassen 😉

Unser Institut wächst und die Verwaltung und Übersicht wird dadurch immer komplizierter. Eine Liste manuell zu führen ist schon lange keine Option mehr und um einen Überblick über alle Computer mitsamt Hardware, Software, Treiber und vielem mehr zu bekommen gibt es verschiedenste Software im Internet, die zum Inventarisieren dient.

Am sinvollsten wäre natürlich eine Software, die täglich eine Inventarisierung durchführt um auf dem neuesten Stand zu bleiben.
Bei der Suche im Internet bin ich auf eine Freeware-Kombination gestoßen, die alle Anforderungen vollstens erfüllt.

Da wäre das französische Open-Source Projekt OCS Inventory NG, welches durch ein kleines Programm („Agent“) sämtliche Informationen eines Computers scannen, speichern und in eine Datenbank eintragen kann. Dieser Agent kann manuell oder auch automatisch durch Gruppenrichtlinien, Autostart oder Fernsteuerung aktiviert werden. Es ist also möglich durch eine Gruppenrichtlinie diesen Agent auf alle Computer eines Active Directories zu verteilen und durch das Eintragen in das Startscript der GPO bei jedem Computerstart aktivieren.
Benötigt wird jetzt nur noch ein Webserver auf dem die OCS Datenbank läuft. Dann tragen die Computer bei jedem Start ihre aktuellen Daten in die Datenbank ein.
OCS Inventory NG hat in seiner Standardversion auch ein FrontEnd, wenn auch nur sehr kümmerlich. Hier lassen sich alle Rechner einsehen, Einstellungen vornehmen und der Agent steuern.
Näheres auf der Homepage von OCS Inventory NG.

Um ein hübsches und multifunktionales FrontEnd für diese Angelegenheit zu gewährleisten installieren wir zusätzlich GLPI (Gestionnaire libre de parc informatique). Diese tolle, natürlich frei zugängliche, Software bietet ein großartiges FrontEnd für eine Inventarisierungdatenbank mit vielen Features und Erweiterungsmöglichkeiten. Als Sahnehäubchen auf dem „i“ lässt ganz eindeutig das geile Ticketsystem erwähnen, welches in großen Unternehmen den Support sehr erleichtern kann wenn es richtig eingerichtet und konsequent genutzt wird.
Für GLPI gibt es viele PlugIns, die andere Services integrieren lassen, so auch OCS. Das OCS PlugIn lässt sich auf der Homepage von GLPI runterladen und bewirkt nach erfolgreicher Installation und Konfiguration eine Synchronisation der OCS Datenbank mit der GLPI Datenbank.
Alles dazu auf der Homepage von GLPI.
Beides kombiniert auf einem Server ergibt eine einfache automatisierte Inventarisierung mit der Möglichkeit der Verteilung in einem AD zusammen mit einem guten FrontEnd zur Verwaltung der Daten.

Die Einrichtung gestaltet sich aber durchaus als herausfordernd, es wird also mindestens(!) 1, 2 Tage beanspruchen den Webserver, OCS und GLPI einzurichten und automatisiert über GPO zu verteilen.

Viel Erfolg, bei Fragen könnt ihr euch gerne an mich wenden.


Ich möchte mit diesem Eintrag meine Erfahrungen bezüglich des, im Titel genannten, Themas niederschreiben.

Es geht um die neue Windows-eigene Virtualisierungsfunktion von Windows Server 2008.
Dadurch, dass Server oft mindestens 2 Netzwerkkarten (NIC) eingebaut haben, wird ein Verbund von diesen oft in Erwägung gezogen, um die Geschwindigkeit, Stabilität und Ausfallsicherheit des Servers zu gewährleisten.

Da wir seit fast einem halben Jahr nun einen Dell PowerEdge 2970 mit 2 Quad Opteron 2356 und 16GB RAM im Keller zu stehen haben, der vorrangig für Virtualisierung gebraucht werden soll, musste ich zwangsläufig erfahrung mit der Thematik machen.

Der Server besitzt 2 Broadcom NetXtreme II Gigabit Netzwerkkarten.

Geplant war, die 2 Netzwerkkarten zu teamen und sowohl den Server als auch alle Virtuellen Maschinen (VMs) von Hyper-V über dieses NIC Team zu leiten. Somit wäre Redundanz sowohl für den Server als auch für die VMs gewährleistet und eine automatisches Load-Balancing würde auch für beide garantiert.

Nach dem NIC Teaming befand ich mich im ‚Manager für virtuelle Netzwerke‘ des Hyper-V Managers. Dort standen allerdings nur die 2 einzelnen NICs zur Auswahl, Broadcom.. und Broadcom.. #2.
Während der Server über das NIC Team ins Netzwerk geht können die VMs ja eine der beiden physischen Netzwerkkarten als Brücke ins Netz benutzen, dachte ich. So würde der Server weiter beide Netzwerkkarten (das Team) und die VMs zusätzlich eine der Netzwerkkarten mitbenutzen.
Funktioniert auch wunderbar solange man nicht versucht von den VMs auf den Server zu kommen. Denn die VMs werden keine Möglichkeit haben mit dem Server zu kommunizieren.
Das liegt daran, dass ein NIC Team nichts weiter ist als eine Art virtueller Switch. Die Hyper-V erstellt aber für die virtuellen Maschinen auch virtuelle Netzwerkkarten (logisch) und diese funktionieren ebenfalls wie ein virtueller Switch. Da nun keine Verbindung zwischen diesen zwei virtuellen Switches bestehen kann besteht auch nicht die Möglichkeit eines Zugriffs.
VMs betreiben wird jedoch schwer ohne mit dem Server zu arbeiten, zu oft brauch man Dateien oder Dienste, die nur auf dem Server laufen.

Ich fasse kurz zusammen:

(v) = virtuell
Server hat NIC1 und NIC2, zusätzlich NIC3(v)(Team).
NIC1 + NIC2 -> NIC3(v)

Hyper-V stellt für alle VMs eine virtuelle Netzwerkkarte zur Verfügung: NIC4(v)
Alle VMs nutzen diese virtuelle Netzwerkkarte.
Diese verweißt mit Hilfe des ‚Manager für virtuelle Netzwerke‘ auf eine externe, im Server physisch vorhandene Netzwerkkarte, ich leite alle über NIC1.
VM1 + VM2 + VMx -> NIC4(v)
NIC4(v) -> NIC1

Bei einem Zugriffsversuch von VM zum Server (z.B. ein simpler Ping) kommen sich die virtuellen Geräte in die Quere, es kommt zu keiner funktionierenden Verbindung.

Für dieses Problem gibt es mehrere Lösungen, je nach persönlicher Situation oder Erfahrung sollte jeder für sich selbst entscheiden.

1. Das NIC Team wird aufgelöst. Jetzt können Server und VMs beliebig NICs zugewiesen werden (alle auf eine NIC für schnellen Serverzugriff, Server und VMs auf unterschiedliche NICs für manuelles Load Balancing) ohne Probleme zu kriegen.

2. Es wird eine 3. Netzwerkkarte eingebaut. Man könnte das NIC Team für den Server belassen und die VMs über die 3. NIC leiten. Zugriffe von den VMs auf den Server laufen dann allerdings über die 3. NIC raus und über das Team wieder rein, es erfolgt kein direkter Zugriff, das kann Millisekunden kosten.

3. Ein externes Gerät (Host) oder eine Extra VM einrichten und mit den Daten des Servers bestücken, auf die die VMs zugreifen müssen. Der Zugriff zwischen den VMs läuft über das virtuelle Netzwerk von Hyper-V und trifft nicht auf das virtuelle Team vom Server, daher sollte es da keine Probleme geben. Macht jedoch Arbeit, da wichtige Daten sowohl auf den Server, als auch auf der Extra Maschine laufen müssen.

4. Es gibt eine Möglichkeit NIC Teams im Hyper-V ‚Manager für virtuelle Netzwerke‘ verfügbar zu machen, obwohl dort normalerweise nur die physischen Netzwerkkarten zur Auswahl stehen.
a) Microsoft Loopback Adpater installieren
b) Diesen per Netzwerkbrücke mit dem NIC Team verbinden (jetzt hat der Server keine Verbindung mehr ins Netz, also RDP über eine 3. NIC oder direkt vorm Server sitzen)
c) Nun im Hyper-V Netzwerkmanager als Externe Adapter den Loopback angeben, kurz einwirken lassen.
d) Von Loopback auf das Team umwechseln.
e) In der VM diesen externen Adapter auswählen und schon habt ihr ein NIC Team in der VM.

Ich danke Mann-IT für die kompetente Hilfe bezüglich dieses Themas.

Ich hoffe, Interessierte konnten dem Text etwas abgewinnen.

Viele Grüße und bis zum nächsten Mal.