hier

was man hier tun kann

Aus tiefem Schlaf erwacht

by Wromey on 19. Mai 2020, no comments

Nach zu langer Pause habe ich meinen Blog wieder aufgeweckt, ich dauerhaft.

Ich möchte hier zunächst meine auf Rubikon.news veröffentlichten Texte und kürzere neue Texte veröffentlichen. Da habe ich schon mal ein Menge Stoff, die vielleicht auch andere interessiert.

E-Mail-Verschlüsselung ist sinnvoll und notwendig

by Wromey on 15. Mai 2020, no comments

Die Verschlüsselung von E-Mails ist Teil der digitalen Selbstverteidigung.

von Wolfgang Romey

Bildlizenz CC0

Wie lange ist es eigentlich her, dass Edward Snowden mit seinen unglaublichen Enthüllungen an die Öffentlichkeit ging? Fünf Jahre, zehn Jahre? Am 20. Mai 2013 flog Snowden nach Hong Kong und danach war alles anders. Oder nicht? Was hat sich eigentlich verändert? Die Geheimdienste haben mehr Geld bekommen, ihre Aktivitäten sind teilweise legalisiert worden und sie machen nun mit Wissen der Öffentlichkeit weiter wie bisher. Was sich trotz der anfänglichen großen Empörung (fast) nicht geändert hat, ist das Verhalten der Internet-Nutzer. Dabei ist es gar nicht so schwer, mit digitaler Selbstverteidigung zu beginnen.

Wer sich im Internet bewegt, muss davon ausgehen, dass die dabei anfallenden bzw. entstehenden Daten fast vollständig von privaten Akteuren und staatlichen Institutionen erfasst werden und für kommerzielle Zwecke oder Überwachung aufbereitet werden. Wie man sich dagegen teilweise schützen kann, wurde kürzlich in einem Beitrag auf Rubikon dargestellt.

Schützen kann man sich aber auch in einem weiteren Bereich: Durch Verschlüsselung der Kommunikation mit E-Mails.

Warum Verschlüsselung?

Die E-Mail-Anwendung ist ein sehr frühes Kind des Internets. Bei der Entwicklung war an die Übermittlung sensibler Daten noch nicht gedacht worden, geschweige denn an den heute gängigen Missbrauch mit Spam oder betrügerischen E-Mails. So kam es, dass der Inhalt von E-Mails auf dem Weg vom Absender zum Empfänger ohne Probleme von den Betreibern der Rechner, über die der Weg der E-Mail führt, gelesen werden kann. Vergleichbar ist das mit dem Versand einer Postkarte. E-Mails erreichen in der Regel ihr Ziel nicht auf dem räumlich kürzesten Weg, sondern über mehrere Stationen auf dem schnellsten Weg, auf dem jeweils der Inhalt der E-Mail von den Betreibern dieser Zwischenstationen gelesen werden kann. Seit den Snowden-Enthüllungen ist bekannt, dass dies auch geschieht und E-Mails systematisch und flächendeckend ausgeforscht werden.

Wie kann man sich dagegen schützen? Beim Postversand würde man sensible Daten in einem Brief versenden, bei E-Mails kann man sich durch Verschlüsselung schützen.

Oftmals wird beklagt, dass man doch keine E-Mail-Partner habe, die ebenfalls Verschlüsselung anwenden, die also verschlüsselte E-Mails empfangen oder versenden können. Das stimmt leider bisher in der Regel. Vorgebracht wird auch, dass man doch nichts zu verbergen habe. Das mag stimmen. Es gibt aber Gruppen von Menschen, die etwas zu verbergen haben: Anwälte, Steuerberater, Mediziner, Menschen in pädagogischen oder sozialen Berufen, Journalisten, usw. Sie müssen darauf vertrauen können, dass ihr E-Mail-Verkehr nicht mitgelesen wird.

Verschlüsselung der E-Mails leistet das. Hilfreich wäre es dabei, wenn mehr Menschen ihre E-Mails verschlüsseln würden, auch wenn der Inhalt belanglos ist. Dann wäre Verschlüsselung unauffällig und die E-Mails der Personen, die Verschlüsselung benötigen, wären nicht so leicht als vielleicht lohnendes Ziel von Angriffen erkennbar.

Es gibt aber eine Anwendung der Verschlüsselung, die auch ohne Partner und Inhalte, die geschützt werden müssen, sinnvoll ist: Die digitale Unterschrift der E-Mail, die Signatur. Sie ist mit einer beglaubigten Unterschrift unter Brief oder Postkarte zu vergleichen.

Wenn man seine E-Mails signiert, kann der Empfänger zweifelsfrei überprüfen, wer der Absender der E-Mail ist und ob die E-Mail auf dem Weg zum Empfänger verändert wurde. Dazu muss der Empfänger aber auf seinem Rechner ein Programm für die Verschlüsselung installiert haben.

Mit der Verwendung der Signatur fordert man den Empfänger also auf, auch mit der Verschlüsselung zu beginnen. Enthält eine E-Mail Inhalte, bei denen er sicher sein muss, dass sie unverändert sind und wer der Absender ist, wird er wohl mit der Verschlüsselung beginnen.

Auf eine wichtige Einschränkung der E-Mail-Verschlüsselung muss aber hingewiesen werden: Verschlüsselt wird nur der Inhalt der E-Mail! Wie bei einem Brief, bei dem Absender und Empfänger erkennbar sind, sind die sogenannten Metadaten, das sind z.B. Absender, Empfänger, Datum, usw. nicht verschlüsselt. Die können auch bei Anwendung der E-Mail-Verschlüsselung weiterhin ausgeforscht werden. Auch der Betreff der E-Mail wird nicht verschlüsselt und sollte ggf. weggelassen werden.

Wie funktioniert Verschlüsselung?

Bei der Verschlüsselung werden Daten mit einem Schlüssel (eine geeignete Folge von Zeichen) in einem mathematisch sehr aufwändigen Verfahren verschleiert. Vergleichen kann man das damit, dass der Inhalt der E-Mail in einen Tresor gelegt wird, der dann verschlossen und zum Empfänger transportiert wird.

Damit der Empfänger den Tresor aufschließen kann, muss er über einen passenden Schlüssel verfügen. Ist das der gleiche Schlüssel, der für das Abschließen verwendet wurde, kann der Absender den Tresor wieder aufschließen – und jeder, der Zugang zum Schlüssel bekommt!

Symetrische Verschlüsselung

Wird für die Verschlüsselung und Entschlüsselung der gleiche Schlüssel verwendet, spricht man von symmetrischer Verschlüsselung. Bei der symmetrischen Verschlüsselung muss der Schlüssel auf einem sicheren Weg vom Absender zum Empfänger gelangen, dabei könnte er aber entwendet werden. Ein Angreifer könnte auch dem Absender den Schlüssel entwenden, ohne dass dies der Empfänger feststellen könnte. Die symmetrische Verschlüsselung birgt also einige Risiken und wird deshalb für die E-Mail-Verschlüsselung nicht verwendet.

Lösung für dieses Problem ist die asymmetrische Verschlüsselung, die man sich folgendermaßen vorstellen kann: Es wird ein Tresor entwickelt, den man mit einem Schlüssel abschließen und nur mit einem anderen Schlüssel aufschließen kann. Der Mensch, der verschlüsselte Nachrichten empfangen will, verteilt Tresore und den Schlüssel, mit dem man den Tresor verschließen kann. Dies ist der öffentliche Schlüssel. Den Schlüssel für das Öffnen des Tresors, den geheimen oder privaten Schlüssel, gibt er nicht weiter und verwahrt ihn sorgfältig an einem geheimen, verschlossenen Ort, für den wiederum nur er den Schlüssel hat. Will ein Absender dem Empfänger eine geheime Nachricht zukommen lassen, legt er sie in den Tresor, verschließt ihn und übermittelt den Tresor dem Empfänger, der nun den geheimen Schlüssel aus dem Versteck holt, damit den Tresor öffnet und die Nachricht liest.

Asymetrische Verschlüsselung

Zu beachten ist, wie oben schon erwähnt, dass Absender und Empfänger des Tresors bekannt sind, zudem wird der Betreff der Nachricht nicht verschlüsselt. Die Kommunikation erfolgt also nicht anonym.

Voraussetzung für die verschlüsselte Kommunikation ist, dass Absender und Empfänger jeweils einen öffentlichen und einen privaten Schlüssel haben. Mit dem öffentlichen Schlüssel des Empfängers wird die Nachricht vom Absender verschlüsselt, nach der Übermittlung wird sie mit dem privaten Schlüssel des Empfängers entschlüsselt

Die asymmetrische Verschlüsselung ist diejenige, welche für die Verschlüsselung von E-Mails und Dateien verwendet wird. Also:

Verschlüsselt wird vom Absender mit dem öffentlichen Schlüssel des Empfängers, entschlüsselt wird mit dem geheimen Schlüssel des Empfängers.

Einrichtung der Verschlüsselung

Verschlüsselung gilt als schwer einzurichten. Dies gilt aus meiner Sicht aber nicht mehr, die Einrichtung ist nicht schwieriger als z.B. die Programmierung eines digitalen Videorekorders.
Mit der von der Free Software Foundation (FSF) herausgegeben Anleitung zur Einrichtung der E-Mail-Verschlüsselung für alle gängigen Betriebssysteme sollte das gelingen.

Wie der Anleitung zu entnehmen ist, benötigt man für die E-Mail-Verschlüsselung

  • ein E-Mail-Programm, das für Verschlüsselung vorbereitet ist: z.B. Thunderbird von der Organisation Mozilla herausgegeben, die auch den Webbrowser Firefox entwickelt);
  • ein Programm, mit dem man den geheimen und den öffentlichen Schlüssel erzeugen kann, das die Schlüssel verwaltet und das die eigentliche Ver- und Entschlüsselung erledigt: GnuPG;
  • ein Programm, das für die Zusammenarbeit der beiden Programme sorgt. Verwendet wird hier Enigmail, ein Plug-In für Thunderbird. Die Anleitung der FSF beschreibt die Installation und Einrichtung dieser Programme.

Erzeugung und Umgang mit den Schlüsseln

Nach der Einrichtung des eigenen E-Mail-Kontos in Thunderbird müssen als Erstes der private und öffentliche Schlüssel, das Schlüsselpaar, erzeugt werden.Wählen Sie bei der Erzeugung des Schlüsselpaares (der geheime und private Schlüssel in einem Arbeitsgang erzeugt) eine ausreichende Schlüssellänge, damit er nicht zu schnell durch die kontinuierliche Steigerung der Rechenleistung unsicher wird. 4096 Bit Schlüssellänge sollten es gegenwärtig mindestens sein. Die Dauer der Erzeugung hängt von der Länge des Schlüssels ab. Auf alter Hardware kann die Erzeugung also durchaus längere Zeit in Anspruch nehmen. Das erzeugte Schlüsselpaar muss durch ein ausreichend starkes Passwort, die sogenannte Passphrase, geschützt werden. Der geheime Schlüssel und die Passphrase für den Zugang zum geheimen Schlüssel müssen sorgfältig und für andere unzugänglich aufbewahrt werden, z.B. auf einem USB-Stick.

Bei der Erzeugung der Schlüssel sollte ein Verfallsdatum eingegeben werden, damit der Schlüssel seine Gültigkeit verliert, wenn er verloren gehen oder unbrauchbar werden sollte. Gleichfalls sollte ein Widerrufszertifikat erzeugt werden, mit dem man den Schlüssel für ungültig erklären kann. Mit Enigmail kann all dies leicht erledigt werden.

Der öffentliche Schlüssel sollte möglichst weit verbreitet werden, z.B. indem er auf einen Schlüsselserver (Keyserver) hochgeladen wird oder im Fuß der E-Mails verteilt wird. Ein Schlüsselserver ist ein ans Internet angebundener Computer, der die Aufgabe hat, öffentliche Schlüssel zu speichern und im Netz der Schlüsselserver zu verbreiten. Man kann auf Schlüsselservern nach öffentlichen Schlüsseln z.B. für eine E-Mail-Adresse suchen.

Öffentlichen Schlüsseln darf man nicht so ohne Weiteres vertrauen. Ist der Schlüssel gefälscht, können sensible Daten an den falschen Empfänger geraten. Im günstigsten Fall sollte man die Schlüssel persönlich austauschen. Ist das nicht möglich, sollte man den sogenannten Fingerprint des Schlüssels auf einem sicheren Weg, z.B. telefonisch, vergleichen. Der Fingerprint ist eine Kette von Zahlen, die bei der Schlüsselerstellung erzeugt wird, mit der man einen öffentlichen Schlüssel eindeutig identifizieren kann.

Will man nun eine verschlüsselte oder signierte E-Mail verschicken, wählt man dies im E-Mail-Programm aus. Ggf. muss man noch den öffentlichen Schlüssel des Empfängers auf einem Schlüsselserver suchen und in das E-Mail-Programm importieren. Vor dem Versenden der E-Mail wird man dann nach der eigenen Passphrase gefragt und die E-Mail wird signiert und/oder verschlüsselt verschickt.

Empfängt man eine E-Mail, die mit dem eigenen öffentlichen Schlüssel verschlüsselt wurde, muss man ebenfalls die Passphrase eingeben, danach wird die E-Mail entschlüsselt und lesbar dargestellt. Die Eingabe der Passphrase ist nach der Einrichtung der einzige zusätzliche Aufwand bei der Verwendung der E-Mail-Verschlüsselung. Sie wird aber in der Regel eine gewisse Zeit im Arbeitsspeicher des Rechners gespeichert, so dass man sie bei der Verwendung des E-Mail-Programms nur einmal eingeben muss, und aus Sicherheitsgründen nach einer einstellbaren Zeit gelöscht.

Die Milliarden müssen verwertet werden!

by Wromey on 10. Mai 2017, no comments

Wenn man sich ein wenig mit Fragen der Nachhaltigkeit digitaler Technik beschäftigt, wird klar, daß ein substanzieller Beitrag zur Nachhaltigkeit dadurch geleistet werden kann, daß die Geräte länger genutzt werden. Das ist aber schwer zu erreichen. Es müßten z.B. bei den Verträgen für Smartphones wesentlich längere Zeiten bis zum Austausch des Gerätes gegen ein neues vereinbart werden. In kürzere Laufzeiten müßte der ökologische Schaden eingepreist werden. Das wird so schnell nicht kommen. Auch, weil die Errichtung der Fabriken, in denen die Halbleiter hergestellt werden, enorme Kosten verursacht.

So war heute bei Golem zu lesen:

Insgesamt möchte die Tsinghua Unigroup satte 70 Milliarden US-Dollar in drei Fabs investieren. Eine davon soll alleine 24 Milliarden US-Dollar kosten und mehr Flash-Speicher-Ausstoß generieren als Samsungs riesiges Werk.

Oder auf eetimes:

Tsinghua to Build $30 Billion Memory Fab in China

Diese Fabriken rechnen sich natürlich nur, wenn sie ausgelastet sind; also müssen die digitalen Geräte möglichst schnell ersetzt werden.
Einer der weinigen Hersteller, der sich diesem Wahnsinn entzieht, ist Fairphone. Dort versucht man den Weg zu gehen, auf dem die Weiterentwicklung mit nur geringen Schäden für die Umwelt erreicht werden kann: Durch Weiterentwicklung der Software. Leider sind die Ressourcen von Fairphone sehr beschränkt, weshalb die Entwicklung nur langsam voran geht. Dennoch habe ich für mein Fairphone Open OS seit dem Kauf im Dezember schon fünf Sicherheitsupdates bekommen, deutlich mehr als bei jedem Gerät, daß ich bisher besessen habe. Also: Kaufen!

Freie Software: die vier Freiheiten sind keineswegs nur ausgedacht.

by Wromey on 28. März 2017, no comments

Freie Software: Hintergrund

Definition: Software gilt dann als Freie Software, wenn

  1. sie ohne Einschränkungen genutzt werden darf;
  2. sie ohne Einschränkungen kopiert und weiter gegeben werden darf;
  3. der Quelltext der Software ohne Einschränkungen studiert werden darf;
  4. sie ohne Einschränkungen verändert werden darf.

Dies muss durch die Lizenz, unter der die Software steht, gesichert werden.

Diese vier Eigenschaften, man spricht häufig auch von Freiheiten, sind nicht einfach gesetzt, sondern entsprechen wesentlichen Eigenschaften von Software:

Zu 1. Es gibt keinen technischen Grund, der die Nutzung der Software auf der Hardware, für die sie entwickelt wurde, einschränkt.

Zu 2. Software kann ohne Qualitätsverlust durch Übertragung auf andere Datenträger vervielfältigt werden und weiter gegeben werden. Es gibt keinen technischen Grund, der das verhindert. Die Nutzung einer Kopie behindert in keiner Weise die Nutzung anderer Kopien. In der Fachsprache sagt man: Software ist Rivalitäts frei nutzbar. Andere Güter, wie z.B. ein Fahrrad, haben diese Eigenschaft nicht: Die Nutzung durch eine Person verhindert oder behindert die Nutzung durch andere Personen.

Auch wirtschaftliche Gründe behindern die Vervielfältigung der Software nicht, da das Kopieren fast kostenfrei möglich ist.

Zu 3. Der Quelltext der Software entsteht bei der Entwicklung der Software, liegt also immer vor. Es gibt keinen technischen Grund, Personen die Einsicht in den Quelltext zu verwehren. Es kann andere Gründe geben. Z.B. kann der Quelltext Geschäftsgeheimnisse enthalten und das Studium des Quelltexts deshalb verboten werden. Die Software ist dann unfrei.

Zu 4. Damit die Software weiter entwickelt werden kann, muss der Quelltext vorliegen. Die Freiheit 3. ist Voraussetzung für Freiheit 4. Liegt der Quelltext vor, gibt es keinen technischen Grund, der die Weiterentwicklung behindert. Software enthält immer Fehler, deshalb ist es wichtig, dass möglichst viele Entwickler den Quelltext studieren und Fehler finden können. Für das Aufspüren von Sicherheitslücken oder Hintertüren ist das unerlässlich.

Den Anforderungen an Freie Software entsprechen also wichtige Eigenschaften von Software.

 

Weitere Eigenschaften von Software

Software verschleißt nicht durch Nutzung. Ihre Eigenschaften verändern sich nicht. Andere Güter nutzen sich in der Regel ab oder werden vollständig verbraucht, wie z.B. ein Apfel, und stehen dann nicht mehr zur Verfügung. Nur eine neue Version der Software mit verbesserten oder neuen Eigenschaften oder geschlossenen Sicherheitslücken läßt die Software altern. Man spricht dann von moralischem Verschleiß.

Wenn Software kopiert wird, verteilen sich die Entwicklungskosten auf die Kopien. Hat die Entwicklung eines Programms z.B. 10.000€ gekostet, fallen bei zwei Kopien nur noch 5.000€ pro Kopie an. Bei 100.000 Kopien sind es nur noch 10 Cent. Gelingt es, die 100.000 Kopien für 10€ pro Stück zu verkaufen, entsteht ein Gewinn von 990.000 €. Damit Software in eine verkaufbare Ware verwandelt werden, müssen die Freiheiten durch eine Lizenz eingeschränkt werden. In der Regel werden dazu das Kopieren und die Einsichtname in den Quelltext untersagt. Der Nutzer erhält zudem kein eigenes Exemplar der Software, das er z.B. weiter verkaufen kann, sondern nur ein persönliches Nutzungsrecht.

Bei Standardsoftware wie z.B. Textverarbeitung, die in großer Stückzahl verbreitet wird, liegt es wegen der praktisch verschwindenden Kosten pro Kopie nahe, die Software Kosten frei zu verteilen. Es ist allerdings bei Freier Software nicht untersagt, sie zu verkaufen.

Entwicklungskosten fallen aber immer an. Sie werden auf unterschiedliche Weise aufgebracht:

  1. Freiwillige entwickeln die Software aus technischem Interesse, weil sie ihre Berufsaussichten verbessern wollen oder weil sie Freie Software fördern wollen. Die Kosten für den erbrachten Entwicklungsaufwand werden nicht in Anschlag gebracht.
  2. Unternehmen, die aus dem Service für Software Gewinne erzielen, beteiligen sich an der Entwicklung oder den anfallenden Kosten.
  3. Unternehmen, die die Software nutzen, beteiligen sich an den Kosten. Da die Entwicklung meist über viele Personen oder Unternehmen verteilt erfolgt, werden so für das einzelne Unternehmen Kosten eingespart. Wichtigstes Beispiel ist der Linux-Kernel, an dessen Entwicklung mehrere Tausend Entwickler beteiligt sind, von denen viele bei den wichtigsten IT-Unternehmen beschäftigt sind.
  4. Durch Spenden der Nutzer. Die Einsicht, dass man sich als Nutzer nach seinen Möglichkeiten an den Kosten für die Entwicklung der genutzten Software beteiligen sollte, verbreitet sich immer mehr. In der Regel wird die Höhe der jeweiligen Einzelspende deutlich unter den Kosten für den Erwerb einer Nutzungslizenz für komerzielle Software bleiben.

Elektromobilität – Endlich Auto fahren ohne schlechtes Gewissen?

by Wromey on 25. Februar 2017, no comments

Leider nein!

Dazu einige Fakten aus dem Bericht Ressourcen-Fluch 4.0, der sich mit dem Ressourcenverbrauch der Industrie 4.0, auch so ein Heilsversprechen, auseinandersetzt.

Die Produktion von Elektro-Fahrzeugen führt also mitnichten zu einer grundsätzlichen Reduktion des Materialverbrauchs in der PKW-­Produktion, sondern erhöht ihn sogar. Das lässt sich anhand von aktuellen Modellen mit schlichten Zahlen untermauern: Ein Renault Clio wiegt ca. 1.100 bis 1.280 Kilogramm, während die Variante mit Elektro-Antrieb, der Renault Zoe, über 1.500 Kilogramm wiegt. Das ab Ende 2016 verfügbare Modell des VW-e-Golf bringt 1.605 Kilogramm auf die Waage, ein Golf GTE mit Plug-in-Hybrid 1.599 Kilogramm. Die Werte für die verschiedenen Modelle mit Diesel- oder Benzin­motoren liegen mit 1.280 bis maximal
1.540 Kilogramm zum Teil deutlich darunter. Der 1974 auf den Markt gekommene VW Golf 1 hat sogar nur 750 bis 800 Kilogramm gewogen.

„Für die Technologien von morgen brauchen wir mehr Rohstoffe – für ein Elektro­auto zum Beispiel 60 Kilogramm mehr Kupfer, 50 Kilogramm mehr Aluminium, 20 Kilogramm mehr Stahl und zehn Kilogramm mehr Nickel als für einen herkömmlichen Verbrenner.

Auch aus rohstoffpolitischer Sicht ist das Heilsversprechen E-Auto Besorgnis erregend. Der Bergbaukonzern BHP Billiton rechnet vor, dass in einem konventionellen Verbrennungsmotor knapp 20 Kilogramm Kupfer verbaut sind. In ­einem Hybrid-Auto wird bereits die doppelte Menge verwendet und in einem elektrischen Auto 80 Kilogramm. So erwartet das Unternehmen, dass 2035 die Kupfernachfrage um 8,5 bis 12 Millionen Tonnen pro Jahr steigen wird.

Dabei ist noch nicht erwähnt, dass auch der Verbrauch an elektrischer Energie nur dann Umwelt schonend ist, wenn es sich um erneuerbare Energie handelt.

Allerdings haben die Elektro-Autos auch Vorteile:

  • Der Umweltschaden entsteht nicht mehr dort, wo das Auto betrieben wird. Die Externalisierung von Belastungen und Schäden ist ja Standard bei den Konsumgesellschaften.
  • Man kann weiterhin Autos kaufen und fahren, mit denen man etwas darstellt. Und sich dann noch als Mensch mit Umweltgewissen inzenieren.
  • An der Ampel läßt man jeden „Benziner“ beim Start hinter sich. Das ist doch Grund genug für einen Kauf!

Dass es schon lange ein funktionierendes Modell von Elektromobilität gibt –  Straßenbahn, O-Busse, Eisenbahn – soll dabei nicht weiter stören.

Warum nicht Linux installieren?

by Wromey on 27. April 2016, no comments

Windows XP wird nicht mehr unterstützt, beim kostenlosen Windows 10 kann man nicht vollständig verhindern, dass private Daten abgegriffen und verkauft werden. Dem kann man entgehen, indem man Linux auf seinem Rechner installiert; und damit zukünftig das Betriebssystem verwendet, das oftmals auch schon das eigene Smartphone oder Tablet antreibt.

Welche Vorteile hat eine Linux-Installation?

  • Auf dem Rechner ist nur legale Software installiert, die ohne weitere Kosten aktualisiert werden kann. Dabei wird nicht nur das Betriebssystem aktualisiert, sondern auch alle Anwendungen. Sicherheitslücken werden also auch in den Anwendungen behoben.
  • Der Quellcode für alle Programme liegt vor, Sicherheitslücken können deshalb leichter gefunden und behoben werden.
  • Die Gefahr, das der Rechner von Viren befallen wird, ist drastisch geringer.
  • Die Daten werden in der Regel in offenen, dokumentierten und damit zukunftssicheren Formaten gespeichert. Man ist nicht an ein bestimmtes Programm gebunden.
  • Die Anforderungen an die Hardware sind deutlich geringer als bei Windows. Man kann die Hardware länger nutzen, die Umwelt wird geschont.
  • Es gibt ein breites Spektrum an leistungsfähiger Software für alle wesentlichen Anwendungsbereiche. Windows-Software kann auch unter Linux verwendet werden, wenn es denn notwendig sein sollte (mit Wine oder in einer Virtualisierung).
  • Alle Software kann ohne Bedenken weiter gegeben werden.

Selbstverständlich gibt es auch Nachteile. Der wichtigste ist sicherlich der, dass der Austausch mit Leuten erschwert wird, die die geheimen Windows Datenformate verwenden. Es kann natürlich auch sein, daß eine Software, die man zwingend benötigt, unter Linux nicht verwendet werden kann. Probleme bereiten manchmal auch Geräte wie Drucker oder Scanner. Dann kann man nicht umsteigen.

Weitere Informationen finden sich unter netzwerk-bildung

Wenn Sie auf Linux umsteigen möchten, können Sie dabei und bei der Einarbeitung unterstützt werden. Für den Raum Düsseldorf können Termine über romey@netzwerk-bildung.net vereinbart werden.

Wolfgang Romey

Zentrale und verteilte soziale Netzwerke

by Wromey on 15. Januar 2016, no comments

Zentralisierte soziale Netzwerke

Eigenschaften

Beispiele für zentralisierte soziale Netzwerke sind facebook, twitter, flickr und youtube. Wie die Grafik zeigt, ist alle diesen Netzwerken ist gemeinsam, dass alle Nutzer auf einem zentralen Server angemeldet sind und auf dem dort angelegten ihre Daten ablegen und ihre Aktivitäten abwickeln.

soziale_netzwerke_1

Dass der Anbieter des sozialen Netzwerk nur einen zentralen Server verwendet, hat seinen Grund im Geschäftsmodell des Anbieters. Das Geschäftsmodell dieser Netzwerke ist nicht, dem Nutzer Funktionalität anzubieten. Geschäftsmodell ist vielmehr, aus den Aktivitäten der Nutzer und den von ihnen auf den Server geladenen Inhalten möglichst viele Daten abzuleiten und diese Daten insbesondere für personalisierte Werbung zu verkaufen. Aus den Daten werden also Waren. Dass das Geschäftsmodell erfolgreich sein kann, belegen die Gewinne von facebook oder google. Twitter tut sich da noch etwas schwer. Die Nutzer leisten also unentgeltlich Arbeit, aus deren Ergebnisse Waren erzeugt werden, für die Betreiber der sozialen Netzwerke und erhalten als Ausgleich die Möglichkeit, die Funktionen der sozialen Netzwerke zu nutzen. Dieses Geschäftsmodell funktioniert am unaufwändigsten mit einer zentralisierten Struktur, die allerdings den Nachteil hat, ein sehr attraktives Ziel für Angriffe oder Überwachung zu sein. Es ist also nicht überraschend, dass immer wieder Millionen von Daten aus diesen zentralisierten Strukturen abgegriffen werden. Ein weiterer Nachteil ist, dass nur der Betreiber darüber entscheidet, ob das Angebot fortgesetzt wird. Bringt es oder eine Teilfunktion nicht den erwarteten Gewinn, kann es (ohne Vorwarnung) eingestellt werden und die Daten der Nutzer sind in der Regel verloren.

Ein soziales Netzwerk ist umso attraktiver und erfolgreicher, je mehr Nutzer es hat. Je größer das Netzwerk ist, desto schwieriger oder unangenehmer wird es für den Nutzer, das Netzwerk zu verlassen: „Alle meine Freunde und Bekannte sind doch dort!“. Beispiele belegen allerdings, dass man sich nicht darauf verlassen sollte. Spricht noch jemand von MySpace, SchülerVZ oder StudiVZ? Der nächste Hype kann dazu führen, dass das genutzte soziale Netzwerk in kurzer Zeit zusammen bricht.

Bei den verteilten sozialen Netzwerken ist man in dieser Hinsicht wesentlich besser geschützt.

Verteilte soziale Netzwerke

Eigenschaften

Geschützt vor dem Zusammenbruch ist man allerdings nur, wenn eine Nutzerzahl zusammen kommt, die es für die Betreiber lohnend macht, dass Netzwerk zu betreiben. Worin der Lohn für die Betreiber besteht, ist unterschiedlich. Er ist fast nie finanziell, oft werden noch nicht einmal die für den Betreiber entstehenden Kosten gedeckt, sondern meist ideell. Der Betreiber will die Selbstbestimmung, die Meinungsfreiheit, ein freies Internet oder … fördern.
Verteilt sind die Netzwerke, weil sie, wie die zweite Grafik zeigt, aus mehreren Server aufgebaut sind und sich die Nutzer möglichst gleichmäßig über die Server verteilen.

Die Software, mit denen diese Server betrieben werden, ist in der Regel Freie Software. Jeder kann sie nutzen und einen eigenen Server betreiben oder aufsetzen, wie es im Fachjargon heißt. Die Software kann, wie bei Freier Software üblich, von einer Gemeinschaft weiter entwickelt werden, die Prüfung, ob die Software auch nur die Funktionen ausführt, die angegeben werden, ist jederzeit möglich. Die Server sind in der Regel über mehrere Staaten verteilt, so dass man wählen kann, in welchem Rechtsraum man sich bewegen will.

Der entscheidende Punkt ist aber, dass die Server miteinander vernetzt sind und die Daten der Nutzer untereinander abgeglichen werden. Man kann wie bei facebook Nutzer also über das ganze Netzwerk suchen und ihren Aktivitäten folgen. Man kann aber z.B. auch einen Server einrichten, zu dem nur beispielsweise die Mitglieder eines Vereins Zugang haben und der in kein Netzwerk eingebunden ist. Der Abgleich zwischen den Servern ist allerdings eine sehr anspruchsvolle Programmieraufgabe, weshalb es nicht überraschend ist, dass noch mehr oder minder große Schwierigkeiten auftreten. Gegenwärtig ist man im Rahmen des W3C, das ist das Gremium, das das Internet weiter entwickelt, dabei, einen Standard für diese Funktionalität zu entwickeln, der dann auch den Austausch über verschiedene Netzwerke möglich machen soll.

Was sind die Vorteile für die Nutzer? Da das Netzwerk verteilt ist, gibt es keine zentralen Angriffspunkt für Überwachung und Datenabgriff. Der Nutzer behält die Hoheit über seine Daten, da die jeweiligen Betreiber sich in der Regel keine Nutzungsrechte an den Daten einräumen lassen. Er behält auch die Hoheit über seine Daten, weil er sie vom Server herunter laden kann, wenn er z.B. den Server verlassen, auf einen anderen Server oder in ein anderes Netzwerk umziehen will oder der Server seine Dienst einstellt. Der Nutzer kann also selbst bestimmen, wie und wo er ein soziales Netzwerk nutzen will.

Beispiele
Oftmals gibt es mehrere Angebote, die die gleiche oder eine ähnlich Funktion erfüllen. Die Auswahl sagt deshalb nichts über die Bedeutung und ist eher zufällig.

Eine Alternative zu facebook ist diaspora*: https://diasporafoundation.org/ Diaspora ist aus sogenannten pods aufgebaut. Wer sich anmelden möchte sollte, einen pod wählen, der schon über eine längere Zeit ohne Probleme läuft und eine mittlere Nutzerzahl hat. Man strukturiert seine Aktivitäten auf diaspora* über tags, also Stichworte, denen man folgt, oder sogenannte Aspekte. Aspekte kann man anlegen, z.B. den Aspekt „FreieSoftware“, und ihm Nutzer hinzufügen, die Beiträge zum Thema veröffentlichen. Es ist möglich, seine Beiträge nur zu diesem Aspekt zu veröffentlichen, so dass sie nur die diesem Aspekt zugeordneten Nutzer erreichen. Damit ist es also möglich, Gruppen zu bilden. – Es gibt eine gut funktionierende Android App.

GNUsocial ist die Alternative zu twitter: http://gnu.io/social/try/
Auch hier kann man Gruppen bilden und Stichwörtern folgen. Auch hier gibt es eine Android-App

Mediagoblin ist die entstehende Alternative zu youtube oder flickr: http://mediagoblin.org/ Bilder, Texte, Filme sollen verteilt darauf gesammelt werden und die Nutzer über Änderungen auch auf einem anderen Server informiert werden. Auch hier ist dies die komplexeste, schwieirigste Programmieraufgabe. Ein Beispiel findet sich unter https://goblinrefuge.com/mediagoblin/

Kontalk ist Alternative zu WhatsUp. Kontalk ist eine App für Android, mit der man Nachrichten Verschlüsselt (end to end encryption) austauschen kann. Das Adressbuch der Nutzer wird nicht ausgelesen, Nutzerdaten werden nur im Anmeldeprozess erfasst und dann gelöscht.

Es wäre möglich, noch viele Seiten mit unterschiedlichen Beispielen zu füllen. Das ist ein Nachteil verteilter sozialer Netze: sie sind unübersichtlich. Dies wird allerdings zukünftig keine große Rolle mehr spielen, wenn die gemeinsame Schnittstelle für verteilte soziale Netzwerke fertig gestellt ist und man über die Netzwerkgrenzen hin kommunizieren kann.

Die vier Freiheiten Freier Software und ihr heutiger Inhalt

by Wromey on 29. Oktober 2015, no comments

Da Software in den lezten Jahren deutlich an Umfang und Verbreitung zugenommen hat und damit der normale Nutzer in der Regel nicht in der Lage ist, den Quellcode auch nur in Teilen zu studieren und zu verstehen, ist zu fragen, welchen Inhalt die vier Freiheiten Freier Software heute haben.

Bei der ersten Freiheit, der Freiheit die Software uneingeschränkt nutzen zu können, ist die Antwort einfach: Für die Nutzer Freier Sotware ist das tägliche Praxis. Selbstverständlich ist das aber nicht. Es gibt z.B. Software, die man nur mit bestehender Internet-Verbindung nutzen kann. Photoshop-Nutzer haben vor einiger Zeit leidvoll erfahren können, was es bedeutet, wenn man eine Deadline hat und der Photoshop-Server nicht erreichbar ist.

Auch bei der zweiten Freiheit, der Freiheit die Software uneingeschränkt vervielfältigen und weitergeben zu können ist die Antwort einfach. Auch dies ist alltägliche Praxis und belegt, daß man die Software besitzt und nicht nur Nutzungsrechte daran hat. Ein qualitativer Unterschied zu unfreier Software.

Wie sieht es aber bei den Freiheiten drei, der Freiheit Zugang zum Quellcode zu bekommen, und der Freiheit vier die Software beliebig verändern zu können, aus? Software ist inzwischen so umfangreich geworden, daß es selbst für erfahrene Software-Entwickler kaum mehr möglich ist, die Software vollständig zu studieren. Deshalb gibt es da, wo es notwendig ist, teure Untersuchung von Software z.B. im Hinblick auf Sicherheitslücken.
Haben also diese Freiheiten für den normalen Nutzer, insbesondere wenn er nicht programmieren kann, keinerlei Bedeutung? Doch! Die Bedeutung erschließt sich aber für den Nutzer erst, wenn ihm bekannt ist, wie Freie Software entwickelt wird. Dann wird deutlich, daß der Quellcode der Software bei der Entwicklung und Weiterentwicklung intensiv von den Entwicklern studiert werden kann und auch wird, da dies die Veraussetzung insbesondere für die Weiterentwicklung ist. Fehlfunktionen, geheime Funktionen und Sicherheitslücken können so entdeckt und behoben werden. In kritischen Fällen kann der Nutzer die Veränderung der Software sogar selbst veranlassen, muß dann allerdings auch die Ressourcen dafür bereit stellen.
Bei unfreier Software ist der Nutzer davon abhängig, daß der Hersteller Fehler und Sicherheitslücken behebt, wann er das will, und daß die Software keine geheimen Funktionen enthält. Überprüft werden kann das nicht.
Freie Software wird mindestens bei größeren Projekten in der Regel auch signiert, so daß der Nutzer sicher sein kann, daß er sie unverändert erhält.

Es geht also für den normalen Nutzer nicht (mehr) darum, die Software selbst studieren zu können. Die Freiheiten drei und vier erhalten ihren Wert für den Nutzer indirekt über den Entwicklungsprozeß Freier Software.
Leider ist die Kenntnis über diesen Prozeß aber wohl kaum verbreitet. Aus meiner Sicht gehört diese Kenntnis zu Informationstechnischer Grundbildung, die schon in der Schule vermittelt werden müßte, um zu einem aufgeklärten Umgang mit Digitaltechnik zu befähigen. Da es freie Programmiersysteme gibt, die schon für sehr junge Schülerinnen und Schüler geeignet sind, wäre das möglich und könnte dazu führen, daß je nach Profilierung z.B. Leistungskurse Informatik sich direkt an freien Software Projekten beteiligen.

Eigenschaften von Software – Vorausetzung für Freie Software

by Wromey on 21. Oktober 2015, no comments

Vorbemerkung
Am Anfang der Entwicklung digitaler Rechner programmierten die Nutzer die jeweilige Maschine selbst. Der Programmtext (Quelltext) der Software war deshalb immer vorhanden, der Verwendungszweck war jeweils konkret festgelegt, die Frage der Weitergabe der Software stellte sich nicht.

Als im nächsten Schritt digitale Rechner in Kleinstserien hergestellt wurden, war Software eine im Kaufpreis enthaltene Beigabe. Auch hier verfügten die Nutzer in der Regel über den Quelltext, konnten die Software an ihre Bedürfnisse anpassen und den Rechner für jeden möglichen Zweck verwenden. Auch hier stellte sich die Frage der Weitergabe nicht.

Mit der zunehmenden Verbreitung der digitalen Rechner in größeren Serien und der Entwicklung von Programmiersprachen änderte sich dies. Ein Teil der Software wurde zu einer Ware, die unabhängig vom Rechnerkauf auf Datenträgern (Magnetspeichern) gehandelt wurde. Damit Software verkauft werden konnte, mußten einige Maßnahmen ergriffen werden, die die Rechte der Nutzer an der Software drastisch einschränkten: Der Quelltext der Software wurde nun nicht mehr weiter gegeben, die Veränderung der Software war damit drastisch behindert bzw. wurde durch die Lizenz, unter der die Software gehandelt wurde, verboten, auch das Kopieren war untersagt. Weitere Kopien der Software mußten gekauft werden.

Als Reaktion darauf entwickelte Richard M. Stallmann vor mehr als 30 Jahren eine Lizenz, geeignet war, die Rechte der Nutzter zu sichern: die General Public Licence (GPL). Für Software, die mit dieser Lizenz lizensiert wurde, wurde der Begriff Freie Software geprägt. Stallmans Anliegen war nicht, eine Lizenz zu entwickeln, die gut zu den Eigenschaften von Software paßt, er wollte die Freiheit und Selbstbestimmung der Nutzer zu sichern. Es ist ihm mit der von ihm erfundenen General Public Licence (GPL) aber eine Lizenz gelungen, die wirksam werden konnte, weil sie wichtige Eigenschaften von Software nutzt.

Die Eigenschaften von Software und Freie Software
Eine Software wird dann als Freie Software bezeichnet, wenn

  • die Nutzer die Software ohne Einschränkung nutzen dürfen.
    Dies ist möglich, weil es keine technischen Gründe gibt, die dies verhindern. Diese Freiheit ist allerdings bis heute umstritten, weil einige Entwickler nicht wollen, daß ihre Software für kriminelle oder z.B. militärische Zwecke genutzt wird. Eine derartige Nutzung ist aber technisch nicht zu verhindern;
  • die Nutzer die Software beliebig kopieren und (auch gegen Kosten) weiter geben dürfen.
    Diese Freiheit ist möglich, weil Software fast ohne Kosten vervielfältig werden kann. Die Kosten für die Entwicklung der Software verteilen sich bei Vervielfältigung über immer mehr Kopien: Hat die Entwicklung 100.000 € verschlungen und es werden 1.000.000 Kopien verteilt, sind die anteiligen Entwicklungskosten 10 Cent. Da Software durch Nutzung nicht verschleißt, ändert sich dieser Kostenanteil nicht. Nur eine verbesserte Version, läßt die Software veralten und letztlich unbrauchbar werden. Wirkung entfaltet diese Freiheit insbesondere, weil die Nutzung der kopierten Software möglich ist, ohne daß dadurch die Nutzung einer anderen Person, die über das Original oder eine Kopie der Software verfügt, behindert wird; Software ist, wie der Fachausdruck sagt, rivalitätsfrei nutzbar;
  • die Nutzer die Funktionsweise der Software studieren können.
    Das ist nur möglich, wenn sie den Quelltext der Software enthalten. Es gibt keinen in der Software liegenden technischen Grund, der dies verhindern würde. Software wird heute immer in einer für den Menschen lesbaren Sprache, dem Quelltext, erstellt. Durch die Bereitstellung des Quelltextes wird die Nutzung der Software durch andere Personen in keiner Weise beeinflußt. Der Nutzer kann aber anhand des Quelltextes überprüfen, ob die Software wie gewünscht arbeitet, er kann Fehler aufdecken, er kann, das ist in den letzten Jahren besonders wichtig geworden, Hintertüren finden, über die Unbefugte sich unberechtigt Zugang zum Rechner verschaffen können;
  • die Nutzer die Software verändern dürfen.
    Auch hierfür ist der Zugang zum Quelltext unerläßlich. Ohne diese Freiheit ist die Weiterentwicklung oder die Fehlerbereinigung drastisch behindert. Software wird weiter entwickelt, indem der Quelltext verändert wird. Der Rechner, auf dem sie ursprünglich entwickelt wurde, muß nicht zur Verfügung stehen. Durch den Quelltext der Software ist sie unabhängig vom ursprünglichen Entwicklungsrechner geworden.

Dies sind die vier Freiheiten, die Software zu Freier Software machen. Bei der GPL werden diese Freiheiten aber durch eine Verpflichtung eingeschränkt. Wenn ein Entwickler Software, die er verändert hat, weiter gibt, muß er dem Empfänger die genannten vier Freiheiten einräumen. Durch diese Einschränkung ist gesichert, daß unter der GPL lizensierte Software nicht zu unfreier Software werden kann.

Oh hardware, wie weit bist herunter gekommen!

by Wromey on 11. September 2015, no comments

Obwohl sie oftmals schöner aussieht, ist sie dennoch herunter gekommen und oftmals nicht mehr akzeptabel. Ich gebe zu, daß auch mich die flachen Smartphones, Tablets, Kameras, Laptops ansprechen. Aber spätetesten bei den Kameras frage ich mich, ob eine flachere Kamera auch besser nutzbar ist.

Deutlicher wird aber der skandalöse Zustand der meisten Hardware, wenn ich an die Hardware denke, mit der ich meine Arbeit mit dem eigenen Rechner begonnen habe. Diese Recher konnte ich noch selbst zum Beispiel beim Speicher aufrüsten. Die Festplatte und Grafikkarte konnten durch leistungsfähigere ersetzt werden, selbst der Prozessor war aktualisierbar. Ausstattung mit CD- und DVD-Laufwerken, die auch durch leistungsfähigere ersetzt werden konnten, war selbstverständlich. Mit ein wenig handwerklichem Geschick war der Rechner gut reparierbar. Selbstverständlich war der Akku zu ersetzen. Dadurch konnte man den Rechner lange funktiosfähig halten, Ressourcen wurden geschont.

Und heute? Ich kenne kein Tablet, bei dem der Nutzer den Akku selbst ohne Schwierigkeiten ersetzen kann. Bei Samsung war bisher der wechselbare bei den Smartphones standard, beim iPhone selbstverständlich nicht. Ausgerechnet bei seinem Spitzensmartphone ist Samsung davon abgegangen: Der Nutzer brauche keinen wechselbaren Akku, als wenn weltweit überall Stromversorgung vorhanden wäre, und auch keine Speichererweiterung! In Klebstoff eingegossen sind die Geräte nur durch eine Fachwerkstatt mit großem Aufwand zu reparieren, wenn überhaupt. Diese Entwicklung hat inzwischen auch die Laptops erreicht. Hauptsache flach und elegant. Nachhaltigkeit? Was ist das; fair gewonnene Materialien? Fairer Kaffee reicht; verantwortbare Entsorgung oder Wiederverwendbarkeit? Das bringt doch keine Arbeitsplätze. – Und selbst Leute, die sich eigentlich Gedanken machen, kaufen das. Man muß sich nur mal anschauen, welche Smartphones Poltiker der Linken oder der Grünen verwenden.

Dabei würde die weitere Verkleinerung der digitalen Bausteine besser als in der Vergangenheit ermöglichen, digitale Geräte zu bauen, die nicht klobig und dabei nachhaltiger sind. Man wüßte nur wollen. – Was die Hersteller statt dessen wollen, ist, daß die Geräte möglichst schnell ersetzt werden. Ein Gerät, das man unaufwändig aufrüsten oder reparieren kann, würde natürlich nicht so schnell ersetzt. Das würde sich aber für die Hersteller nicht rechnen. Sie müssten dazu durch die Verbraucher oder durch den Gesetzgeber gezwungen werden. Ansätze dazu gibt es ja wohl bei der Entsorgung; das muß aber auch durchgesetzt werden.

Erfreulich ist, daß das neue Fairphone auch auf bessere Reparierbarkeit ausgelegt ist und man es auch aufrüsten können soll. Das ist ein weiterer wichtiger Schritt hin zu größerer Fairness. Man kann nur hoffen, daß es genug Leute gibt, die das durch Kaufen würdigen