Kategorie: IT-Glossar

Datenschutz: Gute Absichten, viele Schlupflöcher

Der Datenschutz ist von der Datensicherheit, der Informationssicherheit oder der IT-Sicherheit strikt zu trennen. Beim Datenschutz im IT-Bereich geht es um den Schutz der Privatsphäre eines jeden Menschen, also um seine ‚informationelle Selbstbestimmung‘. Es handelt sich darum, dass seine Daten nicht missbräuchlich verwendet werden, zum Beispiel bei einem schwunghaften Handel mit Mail-Adressen.

Für die Nutzung und Verarbeitung personenbezogener Daten gibt es juristische Regeln, die in der Datenschutz-Grundverordnung (DSGVO), im Bundesdatenschutzgesetz (BDSG) und in den Datenschutzgesetzen der Länder festgelegt sind. Dass es trotz möglicher Strafen immer wieder zu spektakulären Verletzungen des Datenschutzes kommt, hängt vor allem mit der ‚Transnationalität‘ des Internets zusammen. Ein Hacker, der (scheinbar) von den Weihnachtsinseln oder von Usbekistan aus operiert, ist mit nationalem Recht kaum dingfest zu machen.

Der beste Datenschutz besteht daher in einer hohen Datensicherheit. Hier gibt es hervorragende technische Möglichkeiten, einer missbräuchlichen Nutzung von personenbezogenen Daten den Riegel vorzuschieben. Fragen Sie einfach uns.

Datenausführungsverhinderung (DEP)

Auf Windows-Rechnern findet sich die bekannteste Datenausführungsverhinderung (DEP – ‚Data Execution Prevention‘). Hierbei handelt es sich um eine Methode, das Starten von unerwünschtem oder schädlichem Programmcode zu verhindern. Das DEP erlaubt Programmen bei der beabsichtigten Ausführung nicht, auf verdächtige Weise eigene oder fremde Speicherbereiche zu nutzen.

Derartige Angriffe mittels ‚Executables‘ sind typisch für Viren oder Trojaner, die sich Zugang zum System verschaffen wollen. Gelänge es einem Angreifer, seinen bösartigen Programmcode im Systemspeicher auszuführen, wäre die Sicherheit und Integrität des Systems nicht mehr gegeben. Entdeckt das vorgeschaltete DEP einen solchen illegalen Zugriffsversuch, beendet es das Programm sofort. Der Nutzer sieht meist nur, wie sich ein Fenster öffnet, das ihn auf das gestoppte Programm hinweist.

DEP ist auf 64-Bit-Systemen standardmäßig aktiviert. Es schützt dort die Windows-Programme und –Dienste. Bei den 32-Bit-Systemen muss diese DEP-Funktion erst eingeschaltet werden. Es ist jederzeit möglich, unverdächtige Programme separat von dieser Überwachung auszunehmen. Dies aber geschieht auf eigene Gefahr.

CTR: ‚Klick‘ heißt die neue Währung

Im Netz sind die guten alten ‚Anzeigenpreise‘ ziemlich irrelevant geworden. Die Werbung erfolgt mit Bannern, und bezahlt wird nach der Zahl der Mausklicks. Die Click-Through-Rate (CTR) wurde so zur neuen Kennzahl im Internet-Marketing. Wird bspw. eine Seite mit einem Werbebanner hundertmal aufgerufen, und wird das Banner dabei einmal angeklickt, dann beträgt diese ‚Klickrate‘ ein Prozent. Was fast schon ‚sensationell‘ wäre, denn meist bewegt sich die CTR-Zahl im Promillebereich.
Im E-Mail-Marketing gelten etwas andere Verhältnisse, weil sich die Klickrate hier aus dem Verhältnis von geöffneter Mail und den Klicks auf die mailinternen Links definiert (sog. ‚Nettoklickrate‘).

Die CPU: Ein technisches Wunderwerk en miniature

Nicht zu Unrecht wird die CPU als das ‚Herz‘ eines Rechners bezeichnet. Die Central Processing Unit (CPU) oder zentrale Verarbeitungseinheit (ZVE) ist ein programmierter und miniaturisierter Rechen-Chip, der – gemäß seiner ‚Architektur‘ aus Halbleitern (bzw. ‚Transistoren‘) – definierte Rechenvorgänge (‚Algorithmen‘) abarbeiten kann. CPU’s finden sich keineswegs nur in Computern, sondern bspw. auch in Waschmaschinen oder Fahrkartenautomaten.

Die Hauptbestandteile eines solchen Rechenkerns oder Prozessors sind Module, die unterschiedliche Aufgaben übernehmen. Im Zentrum steht das das Rechenwerk, die arithmetisch-logische Einheit (ALU), hinzu kommt das Steuerwerk, das vor allem die Adressen verwaltet, dazu mehrere Register und ein Speichermanager (Memory Management Unit oder MMU).

Co-Prozessoren unterstützen die Zentraleinheit bei ihren Aufgaben, indem sie bspw. Gleitkomma-Operationen übernehmen. Moderne CPU’s sind heute als Mehrkern-Einheiten (‚Multi-Core-Units‘) ausgelegt, wodurch die Parallelverarbeitung und die Geschwindigkeit bei der Lösung von Aufgaben unterstützt wird. Datenleitungen (‚Busse‘) ermöglichen die Kommunikation mit anderen Bestandteilen des Rechensystems, insbesondere mit dem Arbeitsspeicher. Die ‚Caches‘ (Zwischenspeicher) ermöglichen eine rasche Weiterverarbeitung von Teilergebnissen.

Die Auswahl der verwendeten Prozessoren in einem Unternehmen sollte sich an den anfallenden Aufgaben orientieren. Keineswegs ist die teuerste Lösung immer die beste oder effizienteste. Wir beraten Sie gern.

CPC: Der Meistbietende gewinnt

Das Marketing wurde im Netz zu einer verwirrenden Angelegenheit, und die alten Gesetze gelten nicht mehr. Die neue Währung im Netz heißt Cost-per-Click (CPR): Der Werbetreibende bezahlt nur noch für jene Kunden, die sein Angebot auch aufrufen, und nicht länger für die einzigartige Kreativleistung einer Agentur.
Die Platzierung ist beim CPC das neue Gut. Die Werbung für ein Produkt auf einer anderen Homepage wird gewissermaßen ‚versteigert‘, die Höhe des Gebots entscheidet, wie prominent ein Werbebanner dort erscheint. Die Begriffe ‚Affiliate-Marketing‘ oder ‚Search-Engine-Marketing‘ (SEM) haben sich hierfür eingebürgert.
Wenn bspw. die Homepage ‚Heiraten heute‘ ein Banner der Firma ‚Brautmoden‘ für einen Cost-per-Click von zwei Euro verhandelt und dieses Werbebanner bei sich eingebunden hat, so zahlt die Firma ‚Brautmoden‘ vierzig Euro an ‚Heirat heute‘, sobald zwanzig Klicks erfolgt sind.
Auch neue Abrechnungsformen kommen vor: je Weiterleitung das Cost-per-Lead (CPL), je Bestellung das Cost-per-Order (CPO), je Verkauf das Cost-per-Sale (CPS) usw.

IT-Compliance: Ein Meer aus Regeln

Wer heute IT-Dienste im Netz für die Verwaltung oder die Geschäftsabwicklung nutzt, muss eine Reihe von gesetzlichen Regelungen beachten. Diese werden als IT-Compliance bezeichnet. Vor allem muss die Informationssicherheit, die Verfügbarkeit, die Datenaufbewahrung und der Datenschutz beachtet werden.

Zu den Gesetzen, welche es zu beachten gilt, zählen unter anderem:

 

  1. Das deutsche und das österreichische Telekommunikationsgesetz
  2. Datenschutz-Grundverordnung (DSGVO)
  3. Das Bundesdatenschutzgesetz (BDSG neu)
  4. Die steuerlichen ‚Grundsätze zum Datenzugriff und zur Prüfung digitaler Unterlagen (GDPdU)
  5. Das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich

 

Eine Reihe internationaler Regelungen kommt noch hinzu (u.a. Basel II, FINRA, IFRS, MIFID oder PCI-DSS).

Wenn Sie sicher gehen wollen, dass Ihr Unternehmen die IT-Compliance einhält, fragen Sie einfach uns.

Ein ‚Knigge‘ für Unternehmen: Der Code of Conduct

Im Kern formuliert ein Code of Conduct die ‚Benimm-Regeln‘ für Firmen und deren Mitarbeiter. Es handelt sich um eine interne Vorgabe, die auch andere Namen wie ‚Corporate Behavior‘ (CB) oder ‚Leitsätze‘ tragen kann. Es handelt sich um das ‚innere Gesetz‘, das im Unternehmen alle zu befolgen haben. Verstöße gegen diese Regeln können durchaus arbeitsrechtliche Folgen haben.

Ein Code of Conduct gibt einerseits Mitarbeitern Sicherheit durch eine grundlegende Handlungsorientierung, andererseits vermittelt die Gleichförmigkeit, die diese Regeln erzwingen, ein erwünschtes einheitliches Firmen-Image nach außen.

Ein ‚Code of Conduct‘ kann so kurz und lapidar wie die Zehn Gebote verfasst sein, er kann aber auch alle denkbaren Probleme bis ins Detail regeln, vom Umgang mit Geschenken über die Arbeitszeiten, den Datenschutz und das Auftreten gegenüber Kunden bis hin zu anti-korruptiven Maßnahmen. Der ‚Code of Conduct‘ ist meist eingebettet in den größeren Rahmen einer sozialen Verantwortung, der ‚Corporate Social Responsibility (CSB)‘.

Cluster: Ein Netz für alle Fälle

Als Cluster wird ein Rechnerverbund aus vernetzten IT-Maschinen bezeichnet. Je nach Verwendungszweck kommen verschiedene Formen der Vernetzung zum Einsatz.

Ein High-Availabity-Cluster (HAC) sorgt für ständige Verfügbarkeit und eine hohe Ausfallsicherheit. Tritt in einem Knoten des Netzes ein Problem auf, migrieren alle laufenden Dienste auf einen anderen Knoten. Sowohl die Hard- wie auch die Software eines HA-Clusters muss dabei völlig frei von singulären Komponenten sein, die bei einem Ausfall das System lahmlegen könnten. Eine Doppelauslegung aller Komponenten ist für HA-Cluster also die Mindestregel. Auch trennen die Komponenten solcher Cluster geographisch oft mehrere Kilometer Distanz, so dass auch in einem Katastrophenfall das System nicht ausfällt (‚stretched Cluster‘).

Ein anderes Problem besteht in wechselnden Leistungsanforderungen. Hier kommen ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die den Arbeitsanfall bei erhöhten Anforderungen unter sich gleichmäßig aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern die wechselnden Aufgaben gleichmäßig unter sich auf.

Wo es um die Bewältigung großer Datenmengen geht, kommen High-Performance-Computing-Cluster zum Einsatz (HPC). Zumeist ist die Wissenschaft das Einsatzgebiet für ein solches Netz. Hier wird eine Aufgabe mit Hilfe eines Decomposition-Programms auf viele Rechner aufgeteilt, welche jeweils Teilaufgaben übernehmen (‚Jobs‘). Die Geschwindigkeit des Netzwerks und der verwendeten Software sind hier kritische Größen. Die sogenannten ‚Super-Rechner‘ verwenden heute zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.

Wenn Müll zum Problem wird: Blacklisting

Das Phänomen, das zum ‚Blacklisting‘ führte, kennt jeder: Jene Unzahl von nervenden Spam–Mails, die morgens das Postfach verstopfen. Um diesen unerwünschten Müll abzuwehren, wurden die ‚DNS-based Blackhole Lists‘ (DNSBL) geschaffen, die in Echtzeit verwendete Adressen mit Verdachtsfällen abgleichen (mit den ‚Real Time Blackhole Lists‘ – RBL). Das ‚Domain Name System‘ (DNS) ist dabei jenes Auskunftssystem, das Nachrichten exakt einem gewünschten Rechner zustellen kann.

Eine DNSBL führt also eine weltweite Liste jener Rechner, deren Adressen im Internet-Protokoll (IP) als Müllschleudern schon einmal unangenehm auffielen. Solange die weltumkreisende Lawine nur Rechner betraf, deren einziger Lebenszweck auch das Versenden von Spam–Mails war, funktionierte dieses System einwandfrei, es gab kaum ‚false positives‘.

Heute aber erfolgt das Versenden von Massen-Mails immer seltener von einem fixen Ort aus, zumeist sind ‚trojanisierte Rechner‘ am großen Spiel um ‚Viagra‘, um ‚angebliche Lottogewinne‘ oder um ‚seltsame Erbschaften aus Nigeria‘ beteiligt. Ein Schadprogramm (‚Trojaner‘) hat sich dann, vom Besitzer des Rechners unbemerkt, auf die Festplatte geschlichen, und nutzt dessen Hardware als Spamschleuder.

Hier liegt auch das Problem des Blacklisting. Um von einer schwarzen Liste wieder gelöscht zu werden (‚delisting‘), ist ein hoher Aufwand erforderlich, der oft viel Geld und Nerven erfordert. Es kommt daher immer darauf an, welche DNSBLs vom Mail-Server des Providers verwendet werden.

Viele Provider kümmern sich aus den oben genannten Gründen daher leider nicht um ein delisting.

Blade Server: Rechner rationalisieren

Blade Server beruhen auf der Idee, mehrere Computer an nur einer einzigen Stromversorgung, an nur einem gemeinsam genutzten Speichermedium und mit einer Lüftung zu betreiben. Das spart Platz, Energie und vereinfacht die Systemarchitektur.

 

Wie ‚Blätter‘ (‚Blades‘) werden die Platinen mit den Mikroprozessoren und dem Arbeitsspeicher nebeneinander in den Server geschoben. Mehr als 80 solcher Blades nimmt das Standardrack heute auf, also weit mehr als 5.000 Prozessoren. Vorteilhaft sind dabei vor allem die kompakte Bauweise, die hohe Leistungsdichte, die Skalierbarkeit, sowie die einfache Verkabelung und die schnelle und einfache Wartung.

 

Allerdings erfordert die energetische Auslegung und die Lüftung dieser ‚hochdichten Rechenkraft‘ ein gehöriges Maß an technischer Kompetenz, weshalb gerade kleine und mittlere Unternehmen (KMU) solche Aufgaben zunehmend an Externe auslagern.