Kategorie: b.r.m.

Wo Elefanten kämpfen, leidet das Gras

Für die meisten Laien ist der ‚Secure Sockets Layer‘ (SSL) nur ein Begriff aus dem IT-Chinesischen. Dabei verbirgt sich hinter dem Begriff das Netzwerkprotokoll für die sichere Übertragung von Daten. Nur diejenigen Seiten, die gemäß SSL zertifiziert wurden, gelten als sichere Übermittler im weltweiten Datenverkehr.

Wenn jetzt ein Internet-Gigant wie Google einem geschätzten Zehntel aller Seiten das SSL-Misstrauen ausspricht und deren Zertifikate nicht länger anerkennt, dann gleicht dies einem mittleren Erdbeben in der IT-Welt.

Offiziell entzieht der Google-Browser ‚Chrome‘ den betroffenen Symantec-Seiten deshalb das Vertrauen, weil die Sicherheit dort nicht länger gewährleistet sei. Inoffiziell geht es wohl eher darum, dass Symantec unberechtigterweise massenhaft SSL-Zertifikate verteilt haben soll. Ein Kampf der Giganten also – von dem hierzulande bspw. auch ‚Spiegel Online‘, ‚Golem‘ oder ‚Wechat‘ betroffen wären, selbst ‚amazon‘ geriete ab Oktober 2018, ab der nächstfolgenden Chrome-Version also, ins Trudeln. Immerhin ist Google-Chrome weltweit der führende Internet-Browser.

Mit dem Erscheinen von ‚Chrome 66‘ im April 2018 soll die angekündigte Strafmaßnahme weltweit greifen. Der Chrome-Nutzer erhielte beim Aufruf betroffener Seiten dann einen Warnhinweis, dass der Inhalt der angewählten Homepage ‚nicht vertrauenswürdig‘ sei.

Unser IT-Service empfiehlt allen Betreibern von Homepages, die zertifizierte SSL-Sicherheit ihres Angebots bei SSL-Labs zu überprüfen. Wenn Sie Fragen haben, rufen Sie uns einfach an.

Bremen, den 22. Februar 2018

Facebook: Return to Sugar Mountain

Seit Facebook Gründer Marc Zuckerberg begonnen hat, in seinem Netzwerk gründlich ‚auszumisten‘, nähert sich die Plattform wieder der Realität an. Nicht nur der amerikanische Wahlkampf hatte allen gezeigt, wie leicht im alten Regelwerk sich Facebook als ‚Fake-News-Schleuder‘ missbrauchen ließ. Zum großen Umdenken trugen vermutlich auch der Verlust von Werbeeinahmen und die zunehmende Abwanderung der jungen Generation bei.

Wir bei b.r.m. honorieren diese Bemühungen auf der Social-Media-Plattform und kehren mit unserem Account und dem Angebot unsres IT-Service zu Facebook zurück. Interessierte finden unseren Auftritt dort unter www.facebook.com/brmbremen/ .

Bremen, den 28. Februar 2018

Grüner Besuch bei Grüner IT

Dass die Energieeffizienz auch in der IT eine überragende Rolle spielt, zeigen nicht nur die Serverfarmen der großen Digitalunternehmen, die aus Kühlungsgründen allesamt dicht am Polarkreis stehen. b.r.m. ging hier einen anderen Weg, und nutzt die Abwärme der Server heute für die Klimatisierung der Büroräume.
Diese, und viele andere Maßnahmen auf dem Gebiet der praxisnahen Nachhaltigkeit, werden wir unseren Besuchern zeigen können, wenn die Landesarbeitsgemeinschaft Wirtschafts- und Finanzpolitik der bremischen Grünen am 13. März 2018 um 18:30 Uhr bei uns vor Ort ist. Wir freuen uns über lebhafte Diskussionen über einen zeitgemäßen IT-Service.

Bremen, den 7. März 18

Absenderkennung: Die Spitzklammer entscheidet

Absenderkennungen im E-Mail-Verkehr sind kinderleicht zu fälschen. Jeder Laie kann sich im Browser ein neues ‚Pseudo‘, zulegen. Manchmal erhalten erstaunte Nutzer sogar eine E-Mail von sich selbst, die sie aber nie geschrieben haben.

Vor allem die Versender von Spam-Mails arbeiten mit gefälschten Absenderkennungen. Öffnet man schnellfertig eine solche Mail – vor allem deren angehängte Dateien – dann ist das Malheur passiert. Am Ende wurde der eigene Rechner sogar zu einem Teil eines Netzes aus Spam-Mail-Schleudern.

Eine erste und einfache Abhilfe schafft vor allem die Überprüfung der Absenderzeile, die in der Regel einen (fälschbaren) Absendernamen in Klartext enthält – und erst dahinter in Spitzklammern dann die wirkliche E-Mail-Adresse:
Amazon.de      versandbestaetigung(at)amazon.de
Kennung          E-Mail-Adresse

Die Kennung könnte jedermann in seinem Browser leicht manipulieren. Wichtig ist es daher, vor dem Öffnen jedes Posteingangs die E-Mail-Adresse in den Spitzklammern zu überprüfen. Denn einen E-Mail-Server, der ‚amazon.de‘ als seine Domain nennen dürfte, den kann sich kein Spam-Mail-Versender so leicht installieren.

Achten Sie daher beim Prüfen Ihrer Mails immer auf die Spitzklammer in Ihrem Mailclient!

Bremen, den 13. März 20

Nichts im Netz ist kostenlos

Die großen Suchmaschinen arbeiten nur scheinbar ‚kostenlos‘. Jeder Nutzer zahlt mit der Preisgabe seiner Anfragen für das Auffinden von Information im Netz. So entstehen ‚Nutzerprofile‘, die es punktgenau gestatten, einem Kunden exakt jene Werbung zu präsentieren, die zu seinen Interessen passt.

Google‘s AdWord-System stammt aus dem Jahr 2000. ‚AdWord‘ ist ein Kunstwort, das sich aus ‚Advertising‘ (= ‚Werbung‘) und ‚Keywords‘ (= ‚Schlüsselwörter‘) zusammensetzt. Googles gewerbliche Kunden bezahlen dafür, dass ihre Werbung seitlich – oder neuerdings auch unterhalb des Suchfelds – als Ergebnis erscheint, in Gestalt von Snippets mit Link. Und zwar punktgenau immer dann, wenn der Nutzer des Suchsystems ein bestimmtes Schlüsselwort aufruft.

Das ist der IT-Service, den Google seinen zahlenden Kunden bietet. Das Adword-System wurde bis 2008 als Cost-Per-Click abgerechnet (s. CPC). Seither ist ein komplexes Modell entstanden, das u.a. auch die Ladezeiten, die Qualität der Anzeige, die Art der genutzten Geräte (Handy, PC) berücksichtigt. Im Blog ‚Inside AdWords‘ (- seit 2008 auch auf deutsch -) informiert Google kontinuierlich über Änderungen auf dieser weltweit bedeutendsten Werbeplattform.

Bremen, den 23. März 2018

Auftragsdatenverarbeitung (ADV) mit Hürden

In Deutschland regeln der § 11 des Bundesdatenschutzgesetzes und der § 80 im Zehnten Buch des Sozialgesetzes die ‚Datenverarbeitung im Auftrag‘ bzw. die ‚Auftragsdatenverarbeitung (ADV)‘. Sie geben den Rahmen vor für das ‚Outsourcing‘ von Datenverarbeitungsaufträgen an externe Dritte. Seit dem Jahr 2009 verweist das das Bundesdatenschutzgesetz auf eine Zehn-Punkte-Regel, die unter anderem Fragen der Löschung, der Meldepflicht und der Kontrollrechte gerichtsfest klärt.

Jeder Auftraggeber hat sich – abhängig von der Art der erhobenen Daten – zunächst davon zu überzeugen, dass der Auftragnehmer für die Aufgabe überhaupt zertifiziert ist, und dass er darüber hinaus ein Sicherheitskonzept eingeführt hat, und dieses umsetzt. Diese Auskunft erfolgt in der Regel schriftlich. Erst nach dieser Bestätigung darf der Auftraggeber personenbezogene Daten übermitteln.

Haftungsrechtlich steht bei Verstößen nicht primär der Dienstleister in der Verantwortung, sondern unverändert der Auftraggeber.

www.datenschutzbeauftragter-info.de/fachbeitraege/auftragsdatenverarbeitung-mustervertrag-%C2%A711-bdsg/

BCR: Heute schon von gestern

Im Juni 2003 tauchte der Begriff der ‚Binding Corporate Rules‘ (BCR) erstmals in der EU-Datenschutzgruppe auf. Die Überlegungen richteten sich darauf, ein flexibles Instrument für den Datentransfer zu schaffen, welches zugleich die Vorgaben des Datenschutzgesetzes erfüllen sollte. Das Resultat war ein Verfahren, dass es Unternehmen gestattet, den Datenschutz beim Transfer in Drittstaaten individuell zu gestalten, sofern die angewandten ‚Binding Corporate Rules‘ einige Mindeststandards erfüllen.

Hierzu zählten u.a.:

1. Aufbau und Umsetzung eines Sicherheitskonzeptes 2. Datenschutzschulung von Mitarbeitern 3. Verpflichtende Teilnahme an einem Audit-Programm 4. Leistung von Schadenersatz bei Verstößen 5. Geregeltes Beschwerdeverfahren 6. Zusicherung von Transparenz 7. Festlegung des Geltungsbereichs.

Der Vorteil der Einführung von ‚Corporate Binding Rules‘ schien die Möglichkeit einer individuellen Ausgestaltung der Datenübermittlung in ‚unsichere Drittstaaten‘. Der Nachteil war vor allem der hohe Organisationsaufwand und das langwierige Prüfungsverfahren. Da aber der Datenschutz in der Folge selbst in den ‚sicheren Drittstaaten‘ nicht gewährleistet wurde (s. bspw. Facebook-Skandal und Cambridge Analytica), ersetzt jetzt eine europäische Datenschutzgrundverordnung (DSGVO) die BCR. Die neue Verordnung sieht ungeahnt hohe Strafen für Unternehmen vor, welche den Datenschutz nicht verantwortlich handhaben.

Cluster: Teamwork unter Rechnern

Sobald mehrere Rechner zu einem Netz verbunden sind, sprechen wir von einem ‚Cluster‘. Diese Netze können sich – je nach Verwendungszweck – erheblich unterscheiden.

Geht es um ständige Verfügbarkeit und Ausfallsicherheit, dann sprechen wir von einem High-Availabity-Cluster (HAC). Sobald dort in einem Knoten des Netzes ein Problem auftritt, ‚migrieren‘ die laufenden Dienste auf einen anderen Knoten. Alles ist ersetzbar, lautet hierbei die Regel: Sowohl die Hard- wie auch die Software eines HA-Clusters darf keine singulären Komponenten enthalten, da bei einem Ausfall solche ‚Einzelgänger‘ das gesamte System lahmlegen könnten. Mindestens eine Doppelauslegung aller Komponenten ist für HA-Cluster daher Gesetz. Oft trennen die Komponenten solcher Cluster geographisch Distanzen von Kilometern, so dass auch in einem Katastrophenfall das System nicht versagt (‚stretched Cluster‘).

Wechselnde Leistungsanforderungen sind weiteres Problem, das sich durch Cluster beheben lässt. Hier kommen die ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die jeden Arbeitsanfall bei erhöhten Anforderungen gleichmäßig unter sich aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern wechselnde Aufgaben gleichmäßig unter sich auf.

Auch dort, wo es um die ständige Bewältigung solch großer Datenmengen geht, kommen ‚Cluster‘ zum Einsatz. Diese High-Performance-Computing-Cluster (HPC) sind zumeist in der Wissenschaft zu finden. Mit Hilfe eines Decomposition-Programms wird die Arbeitslast auf viele Rechner aufgeteilt, die jeweils Teilaufgaben übernehmen (‚Jobs‘). Kritische Größen sind hier die Geschwindigkeit des Netzwerks und der verwendeten Software. Sogenannte ‚Super-Rechner‘ verwenden zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.

CPU: Je kleiner, desto größer

Das ‚Herz‘ eines jeden Rechners ist die CPU. Diese Central Processing Unit (CPU) oder – auf deutsch – die zentrale Verarbeitungseinheit (ZVE) ist ein miniaturisierter Rechen-Chip, der – gemäß seiner ‚Architektur‘ aus Halbleitern (bzw. ‚Transistoren‘) – definierte Rechenvorgänge (‚Algorithmen‘) verarbeitet. CPU’s finden sich längst nicht mehr nur in Computern, sondern heute bspw. auch in Waschmaschinen, Autos oder Fahrkartenautomaten.

Eine CPU besteht aus mehreren Bestandteilen. Das Zentrum bildet das Rechenwerk, die arithmetisch-logische Einheit (ALU). Ergänzt wird sie vom Steuerwerk, das vor allem Adressen verwaltet. Register und ein Speichermanager (Memory Management Unit oder MMU) vervollständigen den Kern des Chips.

Kleine ‚Helferlein‘ – oder Co-Prozessoren – unterstützen die Zentraleinheit bei ihren Aufgaben, indem sie bspw. Gleitkomma-Operationen übernehmen. Moderne CPU’s sind heute als Mehrkern-Einheiten (‚Multi-Core-Units‘) ausgelegt, was die Parallelverarbeitung und die Geschwindigkeit bei der Lösung von Aufgaben erhöht. Die Datenleitungen (‚Busse‘) sorgen für die Kommunikation mit den anderen Komponenten des Rechensystems, vor allem mit dem Arbeitsspeicher. ‚Caches‘ (Zwischenspeicher) ermöglichen eine rasche Weiterverarbeitung von Teilergebnissen.

Die Auswahl der verwendeten Prozessoren in einem Unternehmen sollte sich an den anfallenden Aufgaben orientieren. Keineswegs ist die teuerste Lösung immer die beste oder effizienteste. Fragen Sie einfach uns …

Glasfaser – schnell wie das Licht

Die Debatte um den Breitbandausbau in Deutschland tost – und sie verheddert sich wieder in den Zuständigkeiten. Bei den aufgeregten Debatten um die Rückständigkeit der Republik fällt dann immer ein Wort: ‚Glasfaser‘.

Glasfasern entstehen, wenn aus geschmolzenem Silikat lange dünne Fasern gezogen werden. Diese besitzen die Fähigkeit, Licht zu leiten. Sie kommen in der Optik und in der Lasertechnik zum Einsatz, immer mehr aber auch in der Datentechnik, weil sich mit ihrer Hilfe perfekte Datennetze schaffen lassen.

Vor allem die unerhörte ‚Bandbreite‘ von bis zu 100 TBit/s ist es, welche Glasfaserkabel zum idealen Datenübertragungsmedium machen. Jede Glasfaser besteht aus einem lichtleitenden Kern (‚core‘), einem abschirmenden Mantel (‚cladding‘) und einer robusten Schutzhülle (‚jacket‘).

Heutige Glasfaserkabel können Strecken von bis zu 100 km ohne jede Zwischenverstärkung überbrücken. Nicht nur die gewaltige Kapazität von Glasfaserleitungen macht sie zum zukünftigen Standard im Datenverkehr. Glasfaserkabel sind darüber hinaus absolut unempfindlich gegenüber elektrischen und magnetischen Störfaktoren. Darüber hinaus sind sie – in Zeiten der Cyber-Spionage auch nicht unwichtig – nahezu ‚abhörsicher‘. Ein mechanisches Problem ist allerdings die Empfindlichkeit offen verlaufender Glasfaserkabel, wie dies in Büros vorkommen kann.