Kategorie: IT

Grüner Besuch bei Grüner IT

Dass die Energieeffizienz auch in der IT eine überragende Rolle spielt, zeigen nicht nur die Serverfarmen der großen Digitalunternehmen, die aus Kühlungsgründen allesamt dicht am Polarkreis stehen. b.r.m. ging hier einen anderen Weg, und nutzt die Abwärme der Server heute für die Klimatisierung der Büroräume.
Diese, und viele andere Maßnahmen auf dem Gebiet der praxisnahen Nachhaltigkeit, werden wir unseren Besuchern zeigen können, wenn die Landesarbeitsgemeinschaft Wirtschafts- und Finanzpolitik der bremischen Grünen am 13. März 2018 um 18:30 Uhr bei uns vor Ort ist. Wir freuen uns über lebhafte Diskussionen über einen zeitgemäßen IT-Service.

Bremen, den 7. März 18

Cluster: Teamwork unter Rechnern

Sobald mehrere Rechner zu einem Netz verbunden sind, sprechen wir von einem ‚Cluster‘. Diese Netze können sich – je nach Verwendungszweck – erheblich unterscheiden.

Geht es um ständige Verfügbarkeit und Ausfallsicherheit, dann sprechen wir von einem High-Availabity-Cluster (HAC). Sobald dort in einem Knoten des Netzes ein Problem auftritt, ‚migrieren‘ die laufenden Dienste auf einen anderen Knoten. Alles ist ersetzbar, lautet hierbei die Regel: Sowohl die Hard- wie auch die Software eines HA-Clusters darf keine singulären Komponenten enthalten, da bei einem Ausfall solche ‚Einzelgänger‘ das gesamte System lahmlegen könnten. Mindestens eine Doppelauslegung aller Komponenten ist für HA-Cluster daher Gesetz. Oft trennen die Komponenten solcher Cluster geographisch Distanzen von Kilometern, so dass auch in einem Katastrophenfall das System nicht versagt (‚stretched Cluster‘).

Wechselnde Leistungsanforderungen sind weiteres Problem, das sich durch Cluster beheben lässt. Hier kommen die ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die jeden Arbeitsanfall bei erhöhten Anforderungen gleichmäßig unter sich aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern wechselnde Aufgaben gleichmäßig unter sich auf.

Auch dort, wo es um die ständige Bewältigung solch großer Datenmengen geht, kommen ‚Cluster‘ zum Einsatz. Diese High-Performance-Computing-Cluster (HPC) sind zumeist in der Wissenschaft zu finden. Mit Hilfe eines Decomposition-Programms wird die Arbeitslast auf viele Rechner aufgeteilt, die jeweils Teilaufgaben übernehmen (‚Jobs‘). Kritische Größen sind hier die Geschwindigkeit des Netzwerks und der verwendeten Software. Sogenannte ‚Super-Rechner‘ verwenden zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.

CPU: Je kleiner, desto größer

Das ‚Herz‘ eines jeden Rechners ist die CPU. Diese Central Processing Unit (CPU) oder – auf deutsch – die zentrale Verarbeitungseinheit (ZVE) ist ein miniaturisierter Rechen-Chip, der – gemäß seiner ‚Architektur‘ aus Halbleitern (bzw. ‚Transistoren‘) – definierte Rechenvorgänge (‚Algorithmen‘) verarbeitet. CPU’s finden sich längst nicht mehr nur in Computern, sondern heute bspw. auch in Waschmaschinen, Autos oder Fahrkartenautomaten.

Eine CPU besteht aus mehreren Bestandteilen. Das Zentrum bildet das Rechenwerk, die arithmetisch-logische Einheit (ALU). Ergänzt wird sie vom Steuerwerk, das vor allem Adressen verwaltet. Register und ein Speichermanager (Memory Management Unit oder MMU) vervollständigen den Kern des Chips.

Kleine ‚Helferlein‘ – oder Co-Prozessoren – unterstützen die Zentraleinheit bei ihren Aufgaben, indem sie bspw. Gleitkomma-Operationen übernehmen. Moderne CPU’s sind heute als Mehrkern-Einheiten (‚Multi-Core-Units‘) ausgelegt, was die Parallelverarbeitung und die Geschwindigkeit bei der Lösung von Aufgaben erhöht. Die Datenleitungen (‚Busse‘) sorgen für die Kommunikation mit den anderen Komponenten des Rechensystems, vor allem mit dem Arbeitsspeicher. ‚Caches‘ (Zwischenspeicher) ermöglichen eine rasche Weiterverarbeitung von Teilergebnissen.

Die Auswahl der verwendeten Prozessoren in einem Unternehmen sollte sich an den anfallenden Aufgaben orientieren. Keineswegs ist die teuerste Lösung immer die beste oder effizienteste. Fragen Sie einfach uns …

Glasfaser – schnell wie das Licht

Die Debatte um den Breitbandausbau in Deutschland tost – und sie verheddert sich wieder in den Zuständigkeiten. Bei den aufgeregten Debatten um die Rückständigkeit der Republik fällt dann immer ein Wort: ‚Glasfaser‘.

Glasfasern entstehen, wenn aus geschmolzenem Silikat lange dünne Fasern gezogen werden. Diese besitzen die Fähigkeit, Licht zu leiten. Sie kommen in der Optik und in der Lasertechnik zum Einsatz, immer mehr aber auch in der Datentechnik, weil sich mit ihrer Hilfe perfekte Datennetze schaffen lassen.

Vor allem die unerhörte ‚Bandbreite‘ von bis zu 100 TBit/s ist es, welche Glasfaserkabel zum idealen Datenübertragungsmedium machen. Jede Glasfaser besteht aus einem lichtleitenden Kern (‚core‘), einem abschirmenden Mantel (‚cladding‘) und einer robusten Schutzhülle (‚jacket‘).

Heutige Glasfaserkabel können Strecken von bis zu 100 km ohne jede Zwischenverstärkung überbrücken. Nicht nur die gewaltige Kapazität von Glasfaserleitungen macht sie zum zukünftigen Standard im Datenverkehr. Glasfaserkabel sind darüber hinaus absolut unempfindlich gegenüber elektrischen und magnetischen Störfaktoren. Darüber hinaus sind sie – in Zeiten der Cyber-Spionage auch nicht unwichtig – nahezu ‚abhörsicher‘. Ein mechanisches Problem ist allerdings die Empfindlichkeit offen verlaufender Glasfaserkabel, wie dies in Büros vorkommen kann.

Gesunde Digitalisierung?

Einführung von E-Akten, digitale Geschäftsmodelle, neue Software-Funktionen, Dokumentationen, Projektplanung ‚on the run‘, ständige Erreichbarkeit – das rasante Tempo der Digitalisierung überfordert nicht nur die Arbeitnehmer, sondern längst auch viele Arbeitgeber. Der Umsetzungsdruck steigt, zugleich wächst die Angst, ob das eigene Können und der sichere Job nicht morgen schon automatisiert werden könnte. Eine Furcht, die längst nicht mehr nur die ‚einfachen Tätigkeiten‘ umfasst, sondern auch auf den ‚Teppich-Etagen‘ umgeht – bspw. in der Buchhaltung wie bei Rechtsanwälten und Notaren.

Die Folge: Die Zahl psychischer Erkrankungen steigt und steigt: Psycho-Stress, Burn-Out, Depressionen. Keine technische Revolution in der Geschichte der Menschheit vollzog sich in einer solchen Geschwindigkeit wie die Digitalisierung. Einer der Gründe, weshalb dieser Wandel psychosozial begleitet werden sollte …

DSGVO hoch zwei …

Europas Verleger geben nicht auf. Sie sind unverdrossen der Überzeugung, dass sich keineswegs ihre Verlage an das Internet anpassen müssen, sondern dass dies Internet ihren Verlagen zu gehorchen hat. Nachdem sie in Deutschland bereits mit dem ‚Leistungsschutzrecht‘ auf die Nase fielen, soll nun ein ‚europäisches Leistungsschutzrecht‘ folgen. Der gescheiterte Stunt soll damit in einem größeren Rahmen wiederholt werden.

Die DSGVO wäre ein Sommerlüftchen gegen den Sturm, der dann absehbar losbrechen wird. Die geplante ‚EU-Urheberrechtsreform‘ umfasst 24 Artikel. Unter anderem sollen künftig alle ‚User‘ für Inhalte von Verlagen zahlen, die solche Inhalte „nutzen“ (Art. 11). Unter Umständen genügt da schon die Verlinkung auf eine Verlags-Quelle, und schon stünde erwartungsfroh der Mann mit dem Klingelbeutel vor der Tür. Wie dieses Inkasso angesichts der schieren Masse im Netz funktionieren soll, ist dabei natürlich die große Frage.

Der größte Knackpunkt besteht aber darin, dass ‚urheberrechtlich geschütztes Material‘ nicht länger ‚ohne Erlaubnis‘ im Netz überhaupt verfügbar sein soll (Art. 13). Jeder Plattformbetreiber soll bei Verstößen gegen diese Regel haften. Die Folge wird sein, dass Facebook, Google usw. gewaltige ‚Upload-Filter‘ installieren, die verhindern, dass Verlagsinhalte noch länger im Netz erscheinen. Da aber die ‚Verbreitung‘ den Rang eines publizistischen Angebots ausmacht, ist heute schon absehbar, dass sich die vereinigte Verlegerschaft mal wieder mit Aplomp ins Knie geschossen hat. Und das Netz wiederum wird in der Folge ärmer und politisch einseitiger werden …

Der Postbote heißt ‘Domain’ …

Ohne klare Adresse trifft im Internet keine Nachricht beim Empfänger ein, in dem Punkt gleichen sich ‚virtual life‘ und ‚real life‘. Diese Adresse, ‚Domain‘ genannt, ist ein zusammenhängender Teilbereich innerhalb der Internet-Hierarchie, der eine exakte Adressierung erlaubt. Die Namen der Domains können die Netzkunden – sofern nicht bereits vergeben – frei wählen. Sie melden den Namen bei der zuständigen Vergabestelle an, dem NIC (Network Information Center) der jeweiligen Top-Level-Domain, auf welche die Endungen ganz rechts in der Internet-Adresse verweisen (z.B.: .de, .com oder .org). In Deutschland registriert die ‚DENIC eG‘ alle Internet-Adressen, die auf .de enden.

Das Domain-System ähnelt einem weitverzweigten Wurzelwerk. Ganz oben in der Hierarchie steht zunächst das Root-Level, daraufhin folgen die Top-Level-Domains, anschließend die untergeordneten Second- und Third-Level-Domains. So ist in der Adresse www.brm.de das ‚www‘ jenes Root-Level, das auf das ‚World Wide Web‘ verweist, das ‚.de‘ bestimmt die deutsche Top-Level Domain, ein ‚brm‘ verweist im Second Level auf unsere hauseigene Domain, mögliche weitere Ergänzungen erlauben in dritter und vierter Ebene den Ansprung genau definierter Seiten auf unserer Homepage. Auswahl und Registrierung von Domains gehören zu den Standardaufgaben, auch für unseren IT-Service.

Imponieren – die Page Impressions

Die ‚Page Views‘ – oder ‚Page Impressions‘ – messen die Zahl der Seitenaufrufe von Netzangeboten – also die ‚Klicks‘. Es handelt sich primär um eine kommerzielle Kennzahl, die von der ‚Gesellschaft für die Verbreitung von Werbeträgern e.V.‘ (IVW) monatlich ermittelt wird. Wer an dem Verfahren teilnimmt, unterwirft sich zugleich den Regularien des IVW. Bisher sind dies ungefähr 1.000 feste Web-Seiten, 300 mobile Angebote und 300 Apps. Die IVW-Zahlen sind vor allem für Mediaanbieter, Mediaagenturen und sonstige Werbetreibende interessant, die das Budget ihrer Kunden möglichst effektiv einzusetzen suchen, und dafür geeignete Werbeplattformen im Netz suchen. Nicht jede Aktion zählt hierbei als ‚Aufruf‘. Automatische Reloads, das mehrfach Aufrufen durch Web-Roboter, oder der Klick beim Schließen einer Seite sind bspw. von der Erfassung ausgeschlossen.

Es riecht nach Quanten

Wer sich mit Quanten-Computern beschäftigt, dem schwirrt nach kurzer Zeit der Kopf. Er steckt dann unversehens tief im Gebiet der theoretischen und Atomphysik. Hier nur so viel: Wo ‚traditionelle Computer‘ auf zwei Spannungszuständen aufbauen, die entweder unter- oder überschritten werden (den Bits), da nutzt ein Quantencomputer die vielen verschiedenen Zustände, die auf molekularer Ebene ein Elektron einnehmen kann (die QBits). Statt des gewohnten ‚physikalischen Raums‘ nutzt ein Quantencomputer also den ‚komplexen Raum‘ der Quantenmechanik. Die Rechenkraft potenziert sich, ganz neue Algorithmen werden möglich. Klar ist auch, dass solche Computer nicht länger unter Windows 10 oder MacOS laufen werden.

Über das experimentelle Stadium – bis zu maximal 1.000 QBits – sind Quantencomputer bisher noch nicht hinausgekommen, auch wenn immer mal wieder Siegesmeldungen verkündet werden, vermutlich um Fördergelder zu akquirieren. Außerdem werden Quantencomputer für den kommerziellen oder privaten Gebrauch kaum geeignet sein, weil sie in der Regel die ‚Supraleitung‘ benötigen, also jene verlustfreie Übertragung, wie sie erst nahe des absoluten Nullpunkts eintritt. Salopp gesagt: Wer einen Quantencomputer nutzen will, muss sich zunächst ein eigenes Kraftwerk bauen. Trotzdem sind Quantencomputer natürlich für staatliche und geheimdienstliche Aufgaben höchst interessant: Keine bisher denkbare Verschlüsselung könnte dem Angriff einer quantengestützten Rechenpower widerstehen. Das vor allem macht die Forschung auf diesem Gebiet so interessant. Wir hingegen gehen davon aus, dass wir für unseren IT-Service auf absehbare Zeit noch keine Kenntnisse der Quantenmechanik benötigen werden.

Sandbox: Der Daten-Übungsplatz

Bei nahezu jedem lagen sie schon im Ordner: die Mails mit den dubiosen Anhängen. Für solche möglichen Schadprogramme wurde die ‚Sandbox‘ geschaffen. Wie Generäle, die den vermuteten Ablauf einer Schlacht in einem Sandkasten zunächst durchspielen, so wird die Auswirkung des Codes in einem Quarantäne-Bereich analysiert. Einige Programme haben als Plug-In schon eine (schwache) Sandbox-Funktion, bspw. das ‚Java Runtime Environment‘ (JRE). Andere Methoden verfolgen einen sehr viel restriktiveren Ansatz: Der gesamte Browser wird in einem Isolationsbereich ausgeführt, abgeschottet von allen Schreibzugriffen auf die Festplatte. Jeder versuchte Zugriff wird auf ein separates Unterverzeichnis umgeleitet, das problemlos gelöscht werden kann. Mögliche ‚Malware‘ gelangt nicht ans Ziel. Andere bauen gleich eine ‚virtuelle Maschine‘ (VM). Der Rechner wird hierbei auf einer Software-Ebene nachgebildet, vom realen Rechner in jeder Hinsicht isoliert. ‚Infiziert‘ wird dann nur ein ‚virtuelles Gefängnis‘. Als verdächtig gelten immer Versuche von Systemänderungen, das Erstellen neuer Netzwerkverbindungen oder das unmotivierte Öffnen von Dateien.