So, nachdem die letzten Tage auf Grund von starkem Arbeitsstress ohne Post vergingen, werde ich mich heute wieder einem etwas komplexerem Thema widmen: Windows 7.
Ich habe Windows 7 noch nicht getestet, werde also keine eigene Meinung widergeben sondern nur die Vorzüge, von denen ich gelesen habe, erläutern. Ganz am Ende des Posts findet ihr den Downloadlink von Windows 7 Beta, für den Fall, dass ihr neugierig geworden seid.

Als Nachfolger von Windows Vista hat Windows 7 natürlich die Aufgabe, Probleme des Vorgängers auszugleichen und damit das angeschlagene Image des gescheiterten Betriebssystems aufzubessern.

Die bekanntesten Nachteile von Windows Vista, die im Alltag schnell stören konnten, kann ich ja mal ausweiten.

  • Vista hat mit seinem neuen Aussehen, Fensteranimationen und dem sogenannten 3D-Flip, das ist das ‚Durchblättern‘ der geöffneten Fenster, das etwas starre Bild der Windows XP Oberfläche überarbeitet. Dieses durchaus dynamische Verhalten erfordert jetzt allerdings eine Menge an Hardware. Windows Vista setzt jetzt weit aus höhere Anforderungen an den Computer als Windows XP. Braucht Windows XP mindestens einen 233MHz Prozessor, 128MB Arbeitsspeicher und 2GB freiem Festplattenspeicher läuft Windows Vista dagegen nur mit einem 1GHz Prozessor, 1GB Arbeitsspeicher und mindestens 15GB freiem Festplattenspeicher. Damit haben sich die Anforderungen verfielfacht. In Anbetracht der Technikstandards sind das keine großen Hürden mehr, jedoch sind Laptops, die nicht gerade letztes Jahr gekauft wurden zum Teil mit diesen Anforderungen noch überfordert.
  • Die Bedienerführung von Windows Vista ist trotz verbesserter Übersicht komplizierter geworden. Es wurde belegt, dass fast alle Vista Buttons und klickbaren Schaltflächen kleiner geworden sind oder sich nicht mehr so einfach klicken lassen. Es entsteht das Gefühl oft daneben zu klicken, wo man doch bei dem angewohnten Windows XP immer die richtige Schaltfläche getroffen hat. Das überhilfreiche Verhalten spiegelt sich auch in den zahlreichen Balloon-Tipps wider, die alle Nase lang nach „Wollen Sie wirklich …“ fragen und einen Benutzer schnell überfordern und nerven können. Es gibt jedoch Genug Abhilfe, man kann sie z.B. einfach deaktivieren.
  • Vista hatte starke Startschwierigkeiten in der Kompatibilität. Es gab anfänglich eine Liste mit Software und Hardware, die auf Viste zuverlässig lief. Die Liste war zwar einige Seiten lang aber man konnte mit hoher Wahrscheinlichkeit davon ausgehen, dass dort nicht vorhandene Software Probleme machen würden. Leider vermisste man viele bekannte Produkte wie Photoshop und viele Spiele, die vorerst keinen Vista Support erhielten und dort auch nicht zu benutzen waren. Vista konnte diese Probleme größtenteils durch Patches und Service Packs beheben aber es gibt immernoch Schwierigkeiten mit vielen bekannten Programmen und Spielen siehe die Windows Vista RTM Software Compatibility List.
Vor allem Letzteres hat für einen unerwartet schlechten Start von Vista gesorgt, da das Arbeiten von Fehlermeldungen der nicht für Vista optimierten Programme gestört wurde. Diese Schwierigkeiten wurden, wie oben beschrieben, dezimiert, jedoch hat sich dieses Image in den meisten Köpfen festgesetzt und Windows XP ist weiterhin der Spitzenreiter unter den benutzten Betriebssystemen. Folgende Grafik belegt das:
Vista Entwickler zeigen sich allerdings optimistisch, dass Windows Vista noch zum selben Standard wird, wie Windows XP:

Bis Ende 2007 nutzten 3% der Computer in Unternehmen von ca. 1 Milliarde Computer weltweit das neue Microsoft Betriebssystem, fand das Forschungsinstitut Gartner heraus. Das klingt im ersten Moment recht mickrig, jedoch ist das ca. derselbe Wert, den Microsoft damals mit seinem vorherigen Betriebssystem Windows XP erreichte (zu dem Zeitpunkt waren es jedoch nur ca. 600 Millionen Computer weltweit).

Bis Ende 2003 erreichte Windows XP eine Verbreitung von ca. 10%. Gartner schätzt, dass Ende dieses Jahres Computer in Unternehmen mit Windows Vista ca. 13% aller Rechner ausmachen werden.

Sie belegen dies auch mit einer Grafik, in der Windows XP nicht mit einbezogen wurde. Dadurch ist der Wachstum auch besser zu erkennen:

Nun aber zu Windows 7, nachdem wir uns die kleinen Macken Windows Vista noch einmal in Erinnerung gerufen haben.

Die wohl auffälligste Verbesserung wird für viele Nutzer bereits schnell zu spüren sein. Es ist die Geschwindigkeit, die Windows 7 von Windows Vista wortwörtlich abhebt. Die Entwickler haben an dieser Stelle ganze Arbeit geleistet. Aus vielen Tests lässt sich entnehmen, dass Windows 7 fast die Geschwindigkeit von Windows XP erreicht, kombiniert mit dem attraktiven Auftreten von Vista. Recht erstaunlich wird das auch in Hinblick auf die neue Taskleiste, mehr dazu aber später.
Die Schnelligkeit erklärt sich durch die verbesserten Hardwareanforderungen. Obwohl das System gegenüber noch mehr visuelle Schmankerl zu bieten hat, sind die Anforderungen gleich geblieben. Windows 7 soll aber im Gegensatz zu Vista auf älteren Maschinen stabiler laufen und sogar auf neueren Netbooks in vollem Umfang zu nutzen sein. Das sollte den Start des finalen Betriebssystems etwas erfolgreicher gestalten als bei dem letzten Versuch der Redmonder.

Das Aussehen hat sich seit Vista auch etwas verändert. Es bleibt jedoch selbstverständlich bei dem glasigen Style, den wir seit Vista kennen.
Zu den visuellen Verbesserungen gehört unter Anderem die neue Taskleiste, die jetzt eine schnellere Erkennung des gesuchten offenen Fenster bieten soll, indem kleine Vorschaubilder gezeigt werden:

Sind mehrere Dateien eines Programmtyps geöffnet bietet Windows 7 jetzt die Möglichkeit diese geöffneten Dateien als eine Liste anzuzeigen.

Das Startmenü ist jetzt aufgeräumter und zeigt auch die zuletzt geöffneten Dateien jedes Programms, so dass sich zum Beispiel bei Bildbearbeitungsprogrammen die letzten bearbeiteten Bilder schnell und ohne Suche finden lassen.

Die Geräteverwaltung ändert sich von dem längst eingerosteten Gerätemanager zu einer übersichtlichen, mit Icons bestückten Hardwareverwaltung.

Den Benutzer erwartet auch eine bessere Benutzerkontensteuerung, in der sich sowohl Sicherheitseinschränkungen leichter setzen, als auch die nervigen Balloon-Tipps von Vista (oben erwähnt) steuern lassen. Auch diese Neuerung war gut bedacht und wird von vielen sehr geschätzt.

Aus fast allen Testberichten ließ sich auch entnehmen, dass es weder große Hardwareerkennungsprobleme, noch Softwareprobleme gab. Ein Testbericht schrieb, dass die Netzwerkkarte nicht erkannt wurde, nach einer Neuinstallation des Treiber gab es jedoch keine Probleme mehr.

Als negativ wurde von einem großen Teil der Internet Explorer 8 angesehen, da dieser immernoch immense Probleme hatte, Internetseiten richtig darzustellen. Selbst Microsoft-eigene Seiten sollen in der Betaversion teilweise falsch dargestellt werden. Die Testlabore empfehlen an dieser Stelle weiterhin nach den Alternativen Firefox oder Opera zu schauen.

Im Allgemeinen hat Windows 7 bei allen Testern aber einen positiven Eindruck hinterlassen.
Die finale Version, die noch im Laufe des Jahres 2009 erscheint, wird sicherlich besser wegkommen als der Vorgänger Windows Vista.

Ich hatte heute eine Computerzeitschrift von 2004 in der Hand und konnte einfach nicht widerstehen auf den letzten Seiten nach den Hardwarepreisen zu gucken.
Ich staunte nicht schlecht; obwohl 2004 kaum vorbei ist hat sich doch schon einiges geändert 😉

Die größte, dort gelistete, externe Festplatte war 300GB groß und kostete auch knapp über 300€.

Schon interessant das mit den heutigen Standards von externen SATA2 Platten mit 1000GB für 82€, 1500GB für 134€ oder auch 2000GB für 170€ zu vergleichen.
Schaut man wiederum auf die Preisentwicklung von z.B. der 2000GB Festplatte LaCie Desktop Hard Drive 2000GB, die in 5 Monaten 20% günstiger geworden ist, dann können wir dieses unglaubliche Datenvolumen in einem Jahr ebenfalls für 100-130€ erwerben.
Für viele stellt sich spätestens hier die Frage wohin das ganze führt, wie die Datenspeicherung in 10 Jahren aussehen wird. In einem älteren Artikel von 2006 stand folgende Passage:

Die Entwicklung der Festplatten in den letzten Jahren hat wohl kaum jemand in dieser Form voraussehen können. Seit der Vorstellung der ersten Festplatte im Jahre 1956 hat sich die Performance um das Zehntausendfache und die Kapazität um den Faktor 100.000 erhöht.

Da sich das Speichervolumen alle 18 Monate verdoppelt könnte man diesen Vergleich umschreiben und den Faktor auf 200.000 seit 1956 erhöhen.
Doch wann wird der exponentielle Anstieg unmöglich werden, wann stellen sich die natürlichen Grenzen von Band-, Disk- und optischen Speichermedien in unseren Weg und vor allem, wie wird es dann weitergehen?
Ein Storage Strategist definierte 2004 in einem Artikel diese Grenzen recht verständlich:

Eines Tages werden wir uns mit des Phänomen des superparamagnetischen Effekts auseinandersetzen müssen, der dadurch entsteht, dass die Bits so nahe beieinander liegen, dass nicht länger zwischen ihnen unterschieden werden kann.

Bis jetzt wurde die Grenze ohne jegliche Probleme umgangen und es sieht so aus als wenn kein Ende in Sicht ist.
Eine Mögliche Richtung nach Flashspeicher, der sich mittlerweile durchgesetzt hat, wird wahrscheinlich die holografische Speicherung sein. Mit dieser Technik ist es möglich mithilfe von Licht Informationen in einem Medium zu speichern. Diese ermöglichen eine Informationsdichte, die bisher ungeschlagen ist. Bei dreidimensionalen Speichermedien wie z.B. Würfeln wäre dann das beschreiben des kompletten Volumens möglich, nicht nur der Oberfläche, wie bei herkömmlichen Diskspeichermedien.

Ein „Speicherwürfel“ mit 1cm Kantenlänge, kleiner als ein klassischer Spielwürfel (1,6cm Kantenlänge), könnte ein Speichervolumen von bis zu 493 Millionen Terabyte bzw. 493 Milliarden Megabyte besitzen. Diese Speicherdichte wäre in der Praxis um Größenordnungen niedriger, da noch Bits für Fehlerkorrektur benötigt werden und die Mangelhaftigkeit des optischen Systems ausgeglichen werden muss.

Man stelle sich aber nur die Möglichkeiten vor, die sich durch einen Durchbruch dieser Speichertechnik ergeben würde.

So und späätestens jetzt sollte sich jeder fragen, ob und vor allem wofür wir diesen Speicher benötigen? Werden wir später wirklich bis zu 400 Exabyte Datenspeicher gebrauchen?
Naja, das werde ich in einem Post um 2012-2030 wohl berichten können. 😉

Auf bald.

Letzte Woche fand ich auf mein Wegen durch das Netz ein interessantes Thema:
Photoshop Retouching
Wie oft lächeln einem Frauen aus Zeitschriften und Magazinen entgegen, wunderhübsch sind sie alle.
Doch was wir auf den Covern sehen können sind nie* die Personen, die einst dafür fotografiert wurden.

„Beauty is a product of photoshop“:
Photoshop Retouching Beispiel 1
Photoshop Retouching Beispiel 2
Photoshop Retouching Beispiel 3
Jetzt schaut in die Magazine und versucht diese Schicht in Gedanken zu entfernen, die dort virtuell aufgetragen wird. Wollen wir uns das überhaupt vorstellen? Manchmal ist ein Schwindel eben doch besser als die Wahrheit.
Absolute Schönheit ist eben mittlerweile zu einem Status geworden den man oft nur noch mit dieser Hilfe erreicht. Mit hübschen und glücklichen Menschen lässt sich eben kein Geld verdienen…

* Kann mir zumindest nicht vorstellen, dass es Zeitschriften gibt, die ihre Models ohne jegliche digitale Bearbeitung abdrucken.

Wollte nur das Wochenende nicht ohne Post verstreichen lassen 😉

Unser Institut wächst und die Verwaltung und Übersicht wird dadurch immer komplizierter. Eine Liste manuell zu führen ist schon lange keine Option mehr und um einen Überblick über alle Computer mitsamt Hardware, Software, Treiber und vielem mehr zu bekommen gibt es verschiedenste Software im Internet, die zum Inventarisieren dient.

Am sinvollsten wäre natürlich eine Software, die täglich eine Inventarisierung durchführt um auf dem neuesten Stand zu bleiben.
Bei der Suche im Internet bin ich auf eine Freeware-Kombination gestoßen, die alle Anforderungen vollstens erfüllt.

Da wäre das französische Open-Source Projekt OCS Inventory NG, welches durch ein kleines Programm („Agent“) sämtliche Informationen eines Computers scannen, speichern und in eine Datenbank eintragen kann. Dieser Agent kann manuell oder auch automatisch durch Gruppenrichtlinien, Autostart oder Fernsteuerung aktiviert werden. Es ist also möglich durch eine Gruppenrichtlinie diesen Agent auf alle Computer eines Active Directories zu verteilen und durch das Eintragen in das Startscript der GPO bei jedem Computerstart aktivieren.
Benötigt wird jetzt nur noch ein Webserver auf dem die OCS Datenbank läuft. Dann tragen die Computer bei jedem Start ihre aktuellen Daten in die Datenbank ein.
OCS Inventory NG hat in seiner Standardversion auch ein FrontEnd, wenn auch nur sehr kümmerlich. Hier lassen sich alle Rechner einsehen, Einstellungen vornehmen und der Agent steuern.
Näheres auf der Homepage von OCS Inventory NG.

Um ein hübsches und multifunktionales FrontEnd für diese Angelegenheit zu gewährleisten installieren wir zusätzlich GLPI (Gestionnaire libre de parc informatique). Diese tolle, natürlich frei zugängliche, Software bietet ein großartiges FrontEnd für eine Inventarisierungdatenbank mit vielen Features und Erweiterungsmöglichkeiten. Als Sahnehäubchen auf dem „i“ lässt ganz eindeutig das geile Ticketsystem erwähnen, welches in großen Unternehmen den Support sehr erleichtern kann wenn es richtig eingerichtet und konsequent genutzt wird.
Für GLPI gibt es viele PlugIns, die andere Services integrieren lassen, so auch OCS. Das OCS PlugIn lässt sich auf der Homepage von GLPI runterladen und bewirkt nach erfolgreicher Installation und Konfiguration eine Synchronisation der OCS Datenbank mit der GLPI Datenbank.
Alles dazu auf der Homepage von GLPI.
Beides kombiniert auf einem Server ergibt eine einfache automatisierte Inventarisierung mit der Möglichkeit der Verteilung in einem AD zusammen mit einem guten FrontEnd zur Verwaltung der Daten.

Die Einrichtung gestaltet sich aber durchaus als herausfordernd, es wird also mindestens(!) 1, 2 Tage beanspruchen den Webserver, OCS und GLPI einzurichten und automatisiert über GPO zu verteilen.

Viel Erfolg, bei Fragen könnt ihr euch gerne an mich wenden.


Ich möchte mit diesem Eintrag meine Erfahrungen bezüglich des, im Titel genannten, Themas niederschreiben.

Es geht um die neue Windows-eigene Virtualisierungsfunktion von Windows Server 2008.
Dadurch, dass Server oft mindestens 2 Netzwerkkarten (NIC) eingebaut haben, wird ein Verbund von diesen oft in Erwägung gezogen, um die Geschwindigkeit, Stabilität und Ausfallsicherheit des Servers zu gewährleisten.

Da wir seit fast einem halben Jahr nun einen Dell PowerEdge 2970 mit 2 Quad Opteron 2356 und 16GB RAM im Keller zu stehen haben, der vorrangig für Virtualisierung gebraucht werden soll, musste ich zwangsläufig erfahrung mit der Thematik machen.

Der Server besitzt 2 Broadcom NetXtreme II Gigabit Netzwerkkarten.

Geplant war, die 2 Netzwerkkarten zu teamen und sowohl den Server als auch alle Virtuellen Maschinen (VMs) von Hyper-V über dieses NIC Team zu leiten. Somit wäre Redundanz sowohl für den Server als auch für die VMs gewährleistet und eine automatisches Load-Balancing würde auch für beide garantiert.

Nach dem NIC Teaming befand ich mich im ‚Manager für virtuelle Netzwerke‘ des Hyper-V Managers. Dort standen allerdings nur die 2 einzelnen NICs zur Auswahl, Broadcom.. und Broadcom.. #2.
Während der Server über das NIC Team ins Netzwerk geht können die VMs ja eine der beiden physischen Netzwerkkarten als Brücke ins Netz benutzen, dachte ich. So würde der Server weiter beide Netzwerkkarten (das Team) und die VMs zusätzlich eine der Netzwerkkarten mitbenutzen.
Funktioniert auch wunderbar solange man nicht versucht von den VMs auf den Server zu kommen. Denn die VMs werden keine Möglichkeit haben mit dem Server zu kommunizieren.
Das liegt daran, dass ein NIC Team nichts weiter ist als eine Art virtueller Switch. Die Hyper-V erstellt aber für die virtuellen Maschinen auch virtuelle Netzwerkkarten (logisch) und diese funktionieren ebenfalls wie ein virtueller Switch. Da nun keine Verbindung zwischen diesen zwei virtuellen Switches bestehen kann besteht auch nicht die Möglichkeit eines Zugriffs.
VMs betreiben wird jedoch schwer ohne mit dem Server zu arbeiten, zu oft brauch man Dateien oder Dienste, die nur auf dem Server laufen.

Ich fasse kurz zusammen:

(v) = virtuell
Server hat NIC1 und NIC2, zusätzlich NIC3(v)(Team).
NIC1 + NIC2 -> NIC3(v)

Hyper-V stellt für alle VMs eine virtuelle Netzwerkkarte zur Verfügung: NIC4(v)
Alle VMs nutzen diese virtuelle Netzwerkkarte.
Diese verweißt mit Hilfe des ‚Manager für virtuelle Netzwerke‘ auf eine externe, im Server physisch vorhandene Netzwerkkarte, ich leite alle über NIC1.
VM1 + VM2 + VMx -> NIC4(v)
NIC4(v) -> NIC1

Bei einem Zugriffsversuch von VM zum Server (z.B. ein simpler Ping) kommen sich die virtuellen Geräte in die Quere, es kommt zu keiner funktionierenden Verbindung.

Für dieses Problem gibt es mehrere Lösungen, je nach persönlicher Situation oder Erfahrung sollte jeder für sich selbst entscheiden.

1. Das NIC Team wird aufgelöst. Jetzt können Server und VMs beliebig NICs zugewiesen werden (alle auf eine NIC für schnellen Serverzugriff, Server und VMs auf unterschiedliche NICs für manuelles Load Balancing) ohne Probleme zu kriegen.

2. Es wird eine 3. Netzwerkkarte eingebaut. Man könnte das NIC Team für den Server belassen und die VMs über die 3. NIC leiten. Zugriffe von den VMs auf den Server laufen dann allerdings über die 3. NIC raus und über das Team wieder rein, es erfolgt kein direkter Zugriff, das kann Millisekunden kosten.

3. Ein externes Gerät (Host) oder eine Extra VM einrichten und mit den Daten des Servers bestücken, auf die die VMs zugreifen müssen. Der Zugriff zwischen den VMs läuft über das virtuelle Netzwerk von Hyper-V und trifft nicht auf das virtuelle Team vom Server, daher sollte es da keine Probleme geben. Macht jedoch Arbeit, da wichtige Daten sowohl auf den Server, als auch auf der Extra Maschine laufen müssen.

4. Es gibt eine Möglichkeit NIC Teams im Hyper-V ‚Manager für virtuelle Netzwerke‘ verfügbar zu machen, obwohl dort normalerweise nur die physischen Netzwerkkarten zur Auswahl stehen.
a) Microsoft Loopback Adpater installieren
b) Diesen per Netzwerkbrücke mit dem NIC Team verbinden (jetzt hat der Server keine Verbindung mehr ins Netz, also RDP über eine 3. NIC oder direkt vorm Server sitzen)
c) Nun im Hyper-V Netzwerkmanager als Externe Adapter den Loopback angeben, kurz einwirken lassen.
d) Von Loopback auf das Team umwechseln.
e) In der VM diesen externen Adapter auswählen und schon habt ihr ein NIC Team in der VM.

Ich danke Mann-IT für die kompetente Hilfe bezüglich dieses Themas.

Ich hoffe, Interessierte konnten dem Text etwas abgewinnen.

Viele Grüße und bis zum nächsten Mal.