Auf der CeBit stellt Fujitsu Siemens Computers (FSC) gerade die ersten 0-Watt Komplettsysteme vor. Ein PC und ein Monitor, die im Stromsparmodus 0 Watt verbrauchen. Klingt sehr verlockend, die Details?
0 watt monitorDer Monitor verfügt über ein Schaltelement im Netzteil, dass durch den Computer gesteuert wird. Wenn der Bildschirm im Stromsparmodus ist verbraucht er absolut keinen Strom, so lange bis der Computer eingeschaltet wird. Dann gibt dieser einen Befehl aus, der den Monitor wieder erweckt. Normalerweise verbrauchen Monitore selbst im sogenannten Schlafmodus noch 1-5 Watt.
0 watt pcDer 0-Watt Computer schafft es ebenfalls ohne Strom noch administrierbar zu bleiben. Der Benutzer soll trotzdem die Möglichkeit, dem Computer Befehle zu geben oder z.B. Zeitfenster festzulegen, an denen der Computer automatisch hochfährt und bestimmte Aufgaben erfüllt. Dank seiner beeindruckenden Energieeffizienz von bis zu 89% bekommt er auch den Energy-Star-5.0.

Die Technik klingt interessant. Den Privat-PC 24/7 laufen lassen und immer darauf zugreifen können, wenn es nötig ist. Von Arbeit immer per Remote darauf zugreifen zu können, weil er immer an ist. Doch dazu muss man einige Hintergrundinformationen wissen:
I) Diese Technik wird erst ab Sommer 2009 zum Einsatz kommen. Geplant ist sie derzeit in Esprimo Computern, die vor allem für Business Partner hergestellt werden.
II) Der Gewinn durch den niedrigeren Stromverbrauch soll pro Jahr nur zwischen 1 und 4€ liegen.
III) Das Netzteil ist dann sicherlich nicht für große Aufgaben gedacht. Es heißt, energiehungrige Spiele oder Programme könnten damit nicht betrieben werden.
Aber FSC möchte durch diese Technik viel eher einen großen Beitrag zur Energieeffizienz und Umweltschutz beitragen; das sollte gelungen sein!

Quellen: ZDNet.de, ZDNet.de, focus.de

Ich hatte heute eine Computerzeitschrift von 2004 in der Hand und konnte einfach nicht widerstehen auf den letzten Seiten nach den Hardwarepreisen zu gucken.
Ich staunte nicht schlecht; obwohl 2004 kaum vorbei ist hat sich doch schon einiges geändert 😉

Die größte, dort gelistete, externe Festplatte war 300GB groß und kostete auch knapp über 300€.

Schon interessant das mit den heutigen Standards von externen SATA2 Platten mit 1000GB für 82€, 1500GB für 134€ oder auch 2000GB für 170€ zu vergleichen.
Schaut man wiederum auf die Preisentwicklung von z.B. der 2000GB Festplatte LaCie Desktop Hard Drive 2000GB, die in 5 Monaten 20% günstiger geworden ist, dann können wir dieses unglaubliche Datenvolumen in einem Jahr ebenfalls für 100-130€ erwerben.
Für viele stellt sich spätestens hier die Frage wohin das ganze führt, wie die Datenspeicherung in 10 Jahren aussehen wird. In einem älteren Artikel von 2006 stand folgende Passage:

Die Entwicklung der Festplatten in den letzten Jahren hat wohl kaum jemand in dieser Form voraussehen können. Seit der Vorstellung der ersten Festplatte im Jahre 1956 hat sich die Performance um das Zehntausendfache und die Kapazität um den Faktor 100.000 erhöht.

Da sich das Speichervolumen alle 18 Monate verdoppelt könnte man diesen Vergleich umschreiben und den Faktor auf 200.000 seit 1956 erhöhen.
Doch wann wird der exponentielle Anstieg unmöglich werden, wann stellen sich die natürlichen Grenzen von Band-, Disk- und optischen Speichermedien in unseren Weg und vor allem, wie wird es dann weitergehen?
Ein Storage Strategist definierte 2004 in einem Artikel diese Grenzen recht verständlich:

Eines Tages werden wir uns mit des Phänomen des superparamagnetischen Effekts auseinandersetzen müssen, der dadurch entsteht, dass die Bits so nahe beieinander liegen, dass nicht länger zwischen ihnen unterschieden werden kann.

Bis jetzt wurde die Grenze ohne jegliche Probleme umgangen und es sieht so aus als wenn kein Ende in Sicht ist.
Eine Mögliche Richtung nach Flashspeicher, der sich mittlerweile durchgesetzt hat, wird wahrscheinlich die holografische Speicherung sein. Mit dieser Technik ist es möglich mithilfe von Licht Informationen in einem Medium zu speichern. Diese ermöglichen eine Informationsdichte, die bisher ungeschlagen ist. Bei dreidimensionalen Speichermedien wie z.B. Würfeln wäre dann das beschreiben des kompletten Volumens möglich, nicht nur der Oberfläche, wie bei herkömmlichen Diskspeichermedien.

Ein „Speicherwürfel“ mit 1cm Kantenlänge, kleiner als ein klassischer Spielwürfel (1,6cm Kantenlänge), könnte ein Speichervolumen von bis zu 493 Millionen Terabyte bzw. 493 Milliarden Megabyte besitzen. Diese Speicherdichte wäre in der Praxis um Größenordnungen niedriger, da noch Bits für Fehlerkorrektur benötigt werden und die Mangelhaftigkeit des optischen Systems ausgeglichen werden muss.

Man stelle sich aber nur die Möglichkeiten vor, die sich durch einen Durchbruch dieser Speichertechnik ergeben würde.

So und späätestens jetzt sollte sich jeder fragen, ob und vor allem wofür wir diesen Speicher benötigen? Werden wir später wirklich bis zu 400 Exabyte Datenspeicher gebrauchen?
Naja, das werde ich in einem Post um 2012-2030 wohl berichten können. 😉

Auf bald.


Ich möchte mich kurz an alle wenden, die ihren Computer noch nicht mit der vollen Ladung Arbeitsspeicher (also mindestens 4GB) ausgestattet haben.

Denn die Preise lassen sich ganz eindeutig sehen!
Meine Empfehlung ist das schnelle 4GB Kit von G.Skill (2x 2GB) mit guten Timings für derzeit nur knappe 38€!
Die Preisentwicklung zeigt den unglaublichen Preisabfall von 37% in den letzten 3 Monaten für dieses Markenprodukt der Extraklasse. Das spiegelt sich natürlich in den Bewertungen und Kaufempfehlungen der Benutzer wider, die beide fast 90% betragen.
Die gleich Größe nur etwas langsamer gibt es von der bekannten RAM-Firma Kingston sogar schon für 10€ weniger, also ab 28€ zu haben: Hier findet ihr ihn.

Wozu denn mehr Arbeitsspeicher?
Ich zitiere gerne den Spruch, der seit Anbeginn der Computer galt und immernoch absolut ausschlaggebend ist:
„Nichts ersetzt Arbeitsspeicher, als noch mehr Arbeitsspeicher!“
Grundlegend dient der Arbeitsspeicher als Ablage für den Computer um Daten, die später gebraucht werden, schnell wieder abrufbar sind. Das lässt sich mit dem Arbeitsplatz, um genau zu sein mit dem Schreibtisch am Arbeitsplatz vergleichen. Es ist ein wesentlicher Unterschied ob ich einen 160x70cm Arbeitstisch oder einen 30x10cm Arbeitstisch habe. Bei dem kleineren Tisch verbringe ich mindestens 50% der Zeit damit, alle Dokumente die ich brauche, in Aktenschränken und Schubladen zu suchen. Genauso sucht der Computer bei zu wenig Arbeitsspeicher fortlaufend auf der Festplatte nach den Daten, die er brauch. Dort muss der Lesekopf der Festplatte erst immer die Stelle auf der Magnetscheibe finden, wo die Daten liegen. Da eine Festplatte aus vielen mechanischen Teilen und Motoren besteht, brauch sie eine geraume Zeit um bei jeder Anfrage des Computers in Fahrt zu kommen und auf die richtige Stelle zu zeigen. Der Arbeitsspeicher dagegen besteht aus nicht beweglichen Teilen, die Daten strömen nur über leitende Bahnen, da muss nichts angetrieben werden.
Mehr Arbeitsspeicher entlastet also sowohl den Computer (also den Prozessor, der Daten sucht) als auch die Festplatte (die Daten findet und weitergibt) und dadurch ergibt sich ein enormer Geschwindigkeitsbonus bei genügend Arbeitsspeicher.

Vielleicht fragen sich Kenner jetzt, wieso man unbedingt in 4GB Arbeitsspeicher investieren soll, wenn Windows in seiner verbreitetsten Form (32bit) nur maximal 3GB nutzen kann.
Die Frage ist berechtigt aber wenn man hinter die technischen Kulissen schaut, macht es durchaus Sinn.
Windows nutzt für sich und seine Programme in dem Fall tatsächlich nur 3GB. Aber nicht nur die „Software“ Windows (Windows ist im Grunde nur eine große und komplexe Software) braucht Arbeitsspeicher für die wiederum darin enthaltenen Programme sondern auch die Hardware selbst kommt ohne Zwischenspeicher nicht aus.
Zudem gibt es Möglichkeiten die 3GB Grenze mittels Physical Address Extension (PAE) zu überschreiten und den vorhandenen Speicher so gut wie möglich auszureizen.
Wer über die 4GB Geschichte in Windows XP bzw. Vista mehr erfahren möchte ist gut beraten einen Blick auf diese Internetseite zu werfen.

Ich hoffe ich konnte euren Rechner damit zu Bestzeiten verhelfen und euch damit auch unter die Arme greifen.

Unser Institut wächst und die Verwaltung und Übersicht wird dadurch immer komplizierter. Eine Liste manuell zu führen ist schon lange keine Option mehr und um einen Überblick über alle Computer mitsamt Hardware, Software, Treiber und vielem mehr zu bekommen gibt es verschiedenste Software im Internet, die zum Inventarisieren dient.

Am sinvollsten wäre natürlich eine Software, die täglich eine Inventarisierung durchführt um auf dem neuesten Stand zu bleiben.
Bei der Suche im Internet bin ich auf eine Freeware-Kombination gestoßen, die alle Anforderungen vollstens erfüllt.

Da wäre das französische Open-Source Projekt OCS Inventory NG, welches durch ein kleines Programm („Agent“) sämtliche Informationen eines Computers scannen, speichern und in eine Datenbank eintragen kann. Dieser Agent kann manuell oder auch automatisch durch Gruppenrichtlinien, Autostart oder Fernsteuerung aktiviert werden. Es ist also möglich durch eine Gruppenrichtlinie diesen Agent auf alle Computer eines Active Directories zu verteilen und durch das Eintragen in das Startscript der GPO bei jedem Computerstart aktivieren.
Benötigt wird jetzt nur noch ein Webserver auf dem die OCS Datenbank läuft. Dann tragen die Computer bei jedem Start ihre aktuellen Daten in die Datenbank ein.
OCS Inventory NG hat in seiner Standardversion auch ein FrontEnd, wenn auch nur sehr kümmerlich. Hier lassen sich alle Rechner einsehen, Einstellungen vornehmen und der Agent steuern.
Näheres auf der Homepage von OCS Inventory NG.

Um ein hübsches und multifunktionales FrontEnd für diese Angelegenheit zu gewährleisten installieren wir zusätzlich GLPI (Gestionnaire libre de parc informatique). Diese tolle, natürlich frei zugängliche, Software bietet ein großartiges FrontEnd für eine Inventarisierungdatenbank mit vielen Features und Erweiterungsmöglichkeiten. Als Sahnehäubchen auf dem „i“ lässt ganz eindeutig das geile Ticketsystem erwähnen, welches in großen Unternehmen den Support sehr erleichtern kann wenn es richtig eingerichtet und konsequent genutzt wird.
Für GLPI gibt es viele PlugIns, die andere Services integrieren lassen, so auch OCS. Das OCS PlugIn lässt sich auf der Homepage von GLPI runterladen und bewirkt nach erfolgreicher Installation und Konfiguration eine Synchronisation der OCS Datenbank mit der GLPI Datenbank.
Alles dazu auf der Homepage von GLPI.
Beides kombiniert auf einem Server ergibt eine einfache automatisierte Inventarisierung mit der Möglichkeit der Verteilung in einem AD zusammen mit einem guten FrontEnd zur Verwaltung der Daten.

Die Einrichtung gestaltet sich aber durchaus als herausfordernd, es wird also mindestens(!) 1, 2 Tage beanspruchen den Webserver, OCS und GLPI einzurichten und automatisiert über GPO zu verteilen.

Viel Erfolg, bei Fragen könnt ihr euch gerne an mich wenden.


Ich möchte mit diesem Eintrag meine Erfahrungen bezüglich des, im Titel genannten, Themas niederschreiben.

Es geht um die neue Windows-eigene Virtualisierungsfunktion von Windows Server 2008.
Dadurch, dass Server oft mindestens 2 Netzwerkkarten (NIC) eingebaut haben, wird ein Verbund von diesen oft in Erwägung gezogen, um die Geschwindigkeit, Stabilität und Ausfallsicherheit des Servers zu gewährleisten.

Da wir seit fast einem halben Jahr nun einen Dell PowerEdge 2970 mit 2 Quad Opteron 2356 und 16GB RAM im Keller zu stehen haben, der vorrangig für Virtualisierung gebraucht werden soll, musste ich zwangsläufig erfahrung mit der Thematik machen.

Der Server besitzt 2 Broadcom NetXtreme II Gigabit Netzwerkkarten.

Geplant war, die 2 Netzwerkkarten zu teamen und sowohl den Server als auch alle Virtuellen Maschinen (VMs) von Hyper-V über dieses NIC Team zu leiten. Somit wäre Redundanz sowohl für den Server als auch für die VMs gewährleistet und eine automatisches Load-Balancing würde auch für beide garantiert.

Nach dem NIC Teaming befand ich mich im ‚Manager für virtuelle Netzwerke‘ des Hyper-V Managers. Dort standen allerdings nur die 2 einzelnen NICs zur Auswahl, Broadcom.. und Broadcom.. #2.
Während der Server über das NIC Team ins Netzwerk geht können die VMs ja eine der beiden physischen Netzwerkkarten als Brücke ins Netz benutzen, dachte ich. So würde der Server weiter beide Netzwerkkarten (das Team) und die VMs zusätzlich eine der Netzwerkkarten mitbenutzen.
Funktioniert auch wunderbar solange man nicht versucht von den VMs auf den Server zu kommen. Denn die VMs werden keine Möglichkeit haben mit dem Server zu kommunizieren.
Das liegt daran, dass ein NIC Team nichts weiter ist als eine Art virtueller Switch. Die Hyper-V erstellt aber für die virtuellen Maschinen auch virtuelle Netzwerkkarten (logisch) und diese funktionieren ebenfalls wie ein virtueller Switch. Da nun keine Verbindung zwischen diesen zwei virtuellen Switches bestehen kann besteht auch nicht die Möglichkeit eines Zugriffs.
VMs betreiben wird jedoch schwer ohne mit dem Server zu arbeiten, zu oft brauch man Dateien oder Dienste, die nur auf dem Server laufen.

Ich fasse kurz zusammen:

(v) = virtuell
Server hat NIC1 und NIC2, zusätzlich NIC3(v)(Team).
NIC1 + NIC2 -> NIC3(v)

Hyper-V stellt für alle VMs eine virtuelle Netzwerkkarte zur Verfügung: NIC4(v)
Alle VMs nutzen diese virtuelle Netzwerkkarte.
Diese verweißt mit Hilfe des ‚Manager für virtuelle Netzwerke‘ auf eine externe, im Server physisch vorhandene Netzwerkkarte, ich leite alle über NIC1.
VM1 + VM2 + VMx -> NIC4(v)
NIC4(v) -> NIC1

Bei einem Zugriffsversuch von VM zum Server (z.B. ein simpler Ping) kommen sich die virtuellen Geräte in die Quere, es kommt zu keiner funktionierenden Verbindung.

Für dieses Problem gibt es mehrere Lösungen, je nach persönlicher Situation oder Erfahrung sollte jeder für sich selbst entscheiden.

1. Das NIC Team wird aufgelöst. Jetzt können Server und VMs beliebig NICs zugewiesen werden (alle auf eine NIC für schnellen Serverzugriff, Server und VMs auf unterschiedliche NICs für manuelles Load Balancing) ohne Probleme zu kriegen.

2. Es wird eine 3. Netzwerkkarte eingebaut. Man könnte das NIC Team für den Server belassen und die VMs über die 3. NIC leiten. Zugriffe von den VMs auf den Server laufen dann allerdings über die 3. NIC raus und über das Team wieder rein, es erfolgt kein direkter Zugriff, das kann Millisekunden kosten.

3. Ein externes Gerät (Host) oder eine Extra VM einrichten und mit den Daten des Servers bestücken, auf die die VMs zugreifen müssen. Der Zugriff zwischen den VMs läuft über das virtuelle Netzwerk von Hyper-V und trifft nicht auf das virtuelle Team vom Server, daher sollte es da keine Probleme geben. Macht jedoch Arbeit, da wichtige Daten sowohl auf den Server, als auch auf der Extra Maschine laufen müssen.

4. Es gibt eine Möglichkeit NIC Teams im Hyper-V ‚Manager für virtuelle Netzwerke‘ verfügbar zu machen, obwohl dort normalerweise nur die physischen Netzwerkkarten zur Auswahl stehen.
a) Microsoft Loopback Adpater installieren
b) Diesen per Netzwerkbrücke mit dem NIC Team verbinden (jetzt hat der Server keine Verbindung mehr ins Netz, also RDP über eine 3. NIC oder direkt vorm Server sitzen)
c) Nun im Hyper-V Netzwerkmanager als Externe Adapter den Loopback angeben, kurz einwirken lassen.
d) Von Loopback auf das Team umwechseln.
e) In der VM diesen externen Adapter auswählen und schon habt ihr ein NIC Team in der VM.

Ich danke Mann-IT für die kompetente Hilfe bezüglich dieses Themas.

Ich hoffe, Interessierte konnten dem Text etwas abgewinnen.

Viele Grüße und bis zum nächsten Mal.