Russisches Lotto

6. Juni 2011

Russisches Roulette kennt jeder und kein gesunder Mensch würde es spielen wollen. Trotzdem spielen wir jeden Tag eine seiner Varianten – russisches Lotto.

Pech & Glück…

Jeder Lottospieler malt sich eine realistische Chance auf den großen Gewinn aus, schließlich kann man spätestens alle paar Wochen in den einschlägigen Gossenfachzeitschriften zuverlässig eine neue immergleiche Geschichte von frischgebackenen glücklichen Lottomillionären lesen – da können doch die Millionen unmöglich immer an einem selbst vorbeigehen. Beim Lotto, aber auch allen anderen erwünschten Zufällen, steht also die gefühlte persönliche Gewinnchance im krassen Gegensatz zur tatsächlichen. Wieso kann es dann aber sein, dass regelmäßig irgendjemand gewinnt, obwohl man realistischerweise nie im Lotto gewinnen kann? Die Antwort liegt in der schieren Masse an Spielern. Ein einzelner Spieler hat im Lotto 6 aus 49 (ohne Superzahl) eine Gewinnchance (klein p) von rund 1 zu 14 Millionen, also praktisch nie:

p = 1 zu 6 aus 49 Möglichkeiten
= 1 : (49! / (6! * (49 – 6)!)) = 1 : 13983816
= 7,15 * 10-8

Die Chance, dass von all den vielen Mitspielern irgendeiner gewinnt (groß P), lässt sich über einen Zwischenschritt, das sogenannte Gegenereignis „keiner gewinnt“ (Pkeiner), bestimmen:

P = 1 – Pkeiner

Diese Gegenwahrscheinlichkeit Pkeiner lässt sich wiederum aus der Wahrscheinlichkeit, dass ich nicht gewinne (pnicht) und der Anzahl der Mitspieler berechnen. Die Formel ist dieselbe wie beim Würfeln. Eine Sechs würfelt man mit einer Chance von 1/6, zwei Sechsen mit 1/6 * 1/6 = (1/6)2 = 1/36. x-beliebig viele Sechsen hintereinander bekommt also man mit einer Chance von (1/6)x. Somit erhält man:

Pkeiner = pnichtMitspieler

Meine eigene Verlustchance (pnicht) ist ebenfalls das Gegenereignis dazu, dass ich gewinne (p):

pnicht = 1 – p

Somit ist der Zusammenhang zwischen meiner Chance zu gewinnen (klein p) und der Chance, dass irgendjemand gewinnt (groß P), hergestellt und kann in einer Formel zusammengefasst werden:

P = 1 – (1 – p)Mitspieler

Bei 10 Millionen Mitspielern ergibt sich somit eine Chance von 51%, dass irgendjemand gewinnt, also im Schnitt bei jeder zweiten Ziehung gibt es mindestens einen mit 6 Richtigen. Kein Wunder, dass es dauernd Lottomillionäre gibt und ich trotzdem nie gewinne. Soweit so gewöhnlich und jeder Mensch, der mal in der Schule mit Wahrscheinlichkeitsrechnung „gequält“ wurde, hat genau diese Formel einmal ausrechnen müssen.

Transfer…

Nur wer hat je darüber nachgedacht, dass diese Formel nicht nur auf das „harmlose“ Glücksspiel Lotto zutrifft, sondern auch eine Menge über Pech, Katastrophen und die menschliche Zivilisation ganz allgemein aussagt?

Jeder mögliche Fehler, jedes mögliche Unglück tritt irgendwann ein, wenn man es nur oft genug riskiert. Dazu gibt etliche Möglichkeiten: Entweder wartet man hinreichend lange oder man setzt sich parallel demselben Risiko mehrfach aus. Und wenn man lange genug wartet und gleichzeitig sich mehrfach demselben Risiko aussetzt, dann werden selbst extrem unwahrscheinliche Unglücke plötzlich wahrscheinlich.

So hatte man nach dem Ausbruch des Eyjafjallajökull 2010 in ganz Europa den Flugverkehr eingestellt. Von einem Flugzeugabsturz wegen der Asche direkt betroffen zu sein war extrem unwahrscheinlich, selbst dass es eine bestimmte Fluggesellschaft traf war recht unwahrscheinlich, weswegen auch viele lauthals über Panikmache gezetert haben. Nur dass bei den vielen Fluggbewegungen pro Tag irgendein Flugzeug aufgrund der Asche abstürzen konnte, dieses Risiko war eben nicht mehr vernachlässigbar klein und kein besonnener Politiker nimmt ein vermeidbares erhöhtes Risiko eines Absturzes auf sich. Die Entscheidung war somit rational richtig.

…mit den Zahlen der Kernkraftlobby

Bei Kernkraftwerken hingegen waren vor Fukushima größtenteils dieselben Leute der Ansicht, dass Super-GAUs nur bei sprichwörtlich sowjetischer Schlamperei auftreten können, die westlichen und insbesondere die deutschen Kernkraftwerke die sichersten auf der Welt seien (abgesehen davon, dass nach nach Fukushima jedes Land, auch Russland, diesen Spitzenplatz für sich lautstark beansprucht), sodass nach Ansicht der Kernkraftwerksbefürworter (nicht Gegner!) nur etwa alle 33’000 (Wert der GRS für deutsche AKWs) bis 1 Million Jahre (Wert der IAEO für den im Bau befindlichen EPR) ein nicht mehr beherrschbarer Unfall sprich Super-GAU eintreten könne und somit praktisch ausgeschlossen sei.

Aber stimmt das? Die genannten Zahlen gelten pro Jahr pro Reaktor: Fast jedes Atomkraftwerk hat mehr als einen Reaktor und jedes in Betrieb befindliche Atomkraftwerk läuft viele Jahre – dank der nicht nur in Deutschland beschlossenen Verlängerung der AKW-Laufzeiten sogar noch viele Jahre länger. Derzeit sind 442 Reaktoren weltweit in Betrieb und die Kernkraft wird seit 1954 zur Stromerzeugung genutzt. Nimmt man nun all diese Zahlen und macht noch die zusätzliche vereinfachende (und im übrigen die Risiken der Kernkraftnutzung verharmlosende) Annahme, dass all die Reaktoren seit 1954 ununterbrochen in Betrieb wären, dann ergibt sich mit den oben genannten Zahlen die Wahrscheinlichkeit für einen Super-GAU irgendwo auf der Welt bis Ende 2010 wie folgt:

Pirgendwo = 1 – (1 – pReaktor)(Jahre * Reaktoren)
= 1 – (1 – pReaktor)24752

Für pReaktor = 1 : 33’000 Jahre (westliches Kernkraftwerk) ergibt sich:

Pirgendwo = 1 – (1 – 1:33000)24752 = 0,528 = 53,8%

Für pReaktor = 1 : 1’000’000 Jahre (im Bau befindlicher EPR) ergibt sich:

Pirgendwo = 1 – (1 – 1:1000000)24752 = 0,024 = 2,4%

Wenn also alle Reaktoren auf dem angenommenen Sicherheitsstand der westlichen Kernreaktoren wären, ist die Frage „Super-GAU innerhab von 50 Jahren ja oder nein“ so wahrscheinlich wie Kopf oder Zahl beim Münzwurf, also eindeutig ein unverantwortliches Risiko. Selbst wenn heute alle Reaktoren auf einen Schlag durch einen EPR ersetzt würden und keine zustätzlichen Atomkraftwerke gebaut würden, der Stromhunger der Welt also nach wie vor nicht durch Kernkraftwerke gestillt würde (2008 betrug ihr weltweiter Anteil an der Stromerzeugung 13%), wären 2,4% immer noch ein beunruhigend hohes Risiko. Selbst dann, wenn man den Weltstrombedarf durch den EPR decken würde, wären also weitere Super-GAUs im 21. Jahrhundert trotz enormer Sicherheitsanstrengungen vorprogrammiert.

Herausforderung des Schicksals

Nur bis dato hat es in diesen 56 Jahren statt einem „halben“ bereits zwei Super-GAUs und eine Vielzahl weiterer Kernschmelzunfälle bis hin zum Fast-Super-GAU in Three-Miles-Island gegeben, ganz zu schweigen von gravierenden Unfällen in Wiederaufbereitungsanlagen, Uranbergwerken… von militärischer Nutzung garnicht zu reden.

Wenn man also großzügig nur diese zwei Super-GAUs in 56 Jahren berücksichtigt und wieder die kernkraftwerksfreundliche Annahme trifft, alle Reaktoren wären 1954 auf einen Schlag in Betrieb gegangen, kann man damit eine äußerst optimistische Obergrenze des tatsächlichen Risikos des GAUs eines einzelnen Reaktors abschätzen:

pReaktor = Anzahl Super-GAUs / (Jahre * Anzahl Reaktoren)
= 2 / (56 * 442) = 8,08 * 10-5 = 1 : 12’000

Sprich im allergünstigsten Fall explodiert ein Kernreaktor alle 12’000 Jahre. Wenn selbst diese optimistische Risikoabschätzung bei weitem unter den Werten der GRS liegen, kann der technische Fortschritt selbst eines EPRs nie und nimmer bei vollkommen haltlosen (und trotzdem immer noch unvertretbaren) 1 zu 1 Million sein und die neulich vom Bundesumweltminister Norbert Röttgen geäußerten 1 zu 10 Millionen für bestehende deutsche Reaktoren liegen gänzlich im Reich der Phantasie.

Es ist somit eine unumstößliche Tatsache und keine Panikmache von Ökospinnern:

Wenn die Welt nicht schleunigst alle Atomkraftwerke abschaltet, werden wir definitiv mindestens einen weiteren Super-GAU erleben. Heiße Kandidaten sind die USA, Frankreich, Japan, Russland, Großbritannien, Indien, China, Deutschland…

Die Rückkehr der Moderne

22. November 2010

Schon länger spukt mir eine etwas provokant-anmaßende, aber vollkommen ernstgemeinte Kulturthese durch den Kopf, die ich in der Vergangenheit gelegentlich bei Diskussionen mit Freunden nicht nur über Kunst und Kultur mit einem spitzbübischen Grinsen in den Raum warf und auf die Reaktionen wartete…

Die Postmoderne ist Schnee von Gestern. Sie war das Fin de siècle des ausgehenden 20. Jahrhunderts. Die Moderne war nie zuende. Sie ist vielmehr dominierend wie nie zuvor und wird die längste Epoche der Neuzeit werden.

Wie kommt man auf dieses schmale Brett, wo doch allgemein bekannt ist wie postmodern wir alle sind?!

Die Postmoderne war die aufkommende Langeweile und der Eskapismus vor der Jahrtausendwende, als man sich an den omnipräsenten Formen, Stilen und Weltsichten sattgesehen und -gelebt hatte, die man fälschlich für identisch mit der Moderne hielt. Dabei versuchte man lediglich den Bruch mit der erstarrten Philosophie des Bauhaus und seiner Kinder und betrieb somit letztlich nichts anderes als die Moderne fortzuführen. Die Postmoderne war modern.

Moderne ist Rastlosigkeit und Beschleunigung des Lebens. Moderne ist Globalisierung und um sich greifende Urbanisierung mit all ihrer empfundenen Enge und kulturellen Widersprüchlichkeit bei gleichzeitiger radikaler individueller Freiheit. Moderne ist umfassender von Technik getriebener gesellschaftlicher Wandel. Wie umfassend dieser ist, wird schon beim Rückblick auf die Jahre ab 1995 sichtbar.

Die Moderne begann, als die Menschheit an ihre geografischen, humanitären und materiellen Grenzen stieß. Sie wird so lange fortbestehen, wie sich die Menschheit sich in diesem selbstverschuldeten Flaschenhals befindet, in dem die Ansprüche die Möglichkeiten übersteigen. Ob, wie und wenn ja wann die Menschheit da hindurchkommen wird, ist offen. Sehr sicher aber wird die Moderne nicht vor Ablauf des 21. Jahrhunderts zuende sein.

Die erste Hälfte der Neuzeit war das Zeitalter der Entdeckungen. Die zweite Hälfte, die Moderne, ist das Zeitalter der Entscheidungenzum Guten wie zum Schlechten. Das 21. Jahrhundert wird der Wendepunkt der Zivilisation werden. Man kann das Heute, Hier und Jetzt ablehnen und sich zurück in eine romantische, abenteuereiche Vergangenheit sehnen oder vorwärts in eine scheinbar grenzenlose, virtuelle Zukunft flüchten oder beides zugleich.

Wir können uns aber die Welt und schon garnicht die Zeit aussuchen, in der wir leben. Wer wie Don Quijote gegen ihre Windmühlenflügel kämpft, wird verlacht scheitern. Doch auch wer sich als Mitläufer vom Strom der Zeit träge und geistig wenig gefordert mittreiben lässt oder ihn gar begeistert feiert, wird in diesem Malstrom untergehen. Wer aber überlegt einen Schritt zur Seite geht, wird Spuren hinterlassen und den Lauf der Zeit ändern.

Bildschirmkalibration unter Linux

23. März 2010

Vorgeplänkel:

Nachdem ich meinen ersten Laptop gekauft hatte fiel mir sofort der Farb- und Kontrastunterschied zwischen dem Röhrenmonitor meines Arbeitsplatzrechners und dem Flüssigkristallbildschirm meines Laptops auf (beide mit Linux). Besonders bei Digitalkamerafotos konnte ich Strukturen in dunklen Bereichen des Bildes auf meinem Laptop klar erkennen, während ich bei meinem PC an diesen Stellen nur schwarz sah. Die Erhöhung des Gammawertes auf dem PC löste zwar das Problem in den dunklen Bereichen, alle hellen Stellen waren aber nun sehr ausgeblichen. Auf der anderen Seite schien mein Laptop eine hellblaue Grundfarbe zu haben. Blauer Himmel und grünes Gras leuchteten sehr kräftig, während die Haut von Menschen immer recht ungesund fahl ausah (abgesehen von den automatischen Saftfarbverbesserungen gängiger Digitalkameras – „bunter als die Wirklichkeit“).

Software:

Die Lösung für dieses Problem ist ein gerätespezifisches Farbprofil („ICC-Datei“), welche das entsprechende Grafiksystem einliest (für Bildschirme unter Linux also X-Window) und dann anhand dessen Vorgaben die an den Bildschirm ausgelieferten Grafikdaten so verändert, das der Darstellungsfehler ausgeglichen wird. Zunächst benötigt man aber ersteinmal solch ein Profil und außerdem braucht man unter X-Window ein spezielles Programm, das ein derartiges Profil passend läd, indem es anhand des Profils die interne Farbzuordnungstabelle der Grafikkarte (LUT) entsprechend verändert. Sehr schnell wird man feststellen, dass es zwei freie Farbverwaltungssysteme gibt mit denen man Farbprofile erstellen kann: LittleCMS zusammen mit dem grafischen Programm lprof und ArgyllCMS, eine Sammlung von Kommandozeilenwerkzeugen. Allerdings kann nur ArgyllCMS ein Bildschirmfarbprofil mittels eines Bildschirmkalibrationsgeräts erstellen.

Unter OpenSuse findet sich ArgyllCMS in der erweiterten Fotoprogrammsammlung: http://download.opensuse.org/repositories/multimedia:/photo/. Sie ist standardmäßig nicht in der Liste der Installationsquellen enthalten, kann aber einfach hinzugefügt werden, indem man die URL in Yast im Modul „Software-Pepositories“ hinzufügt und aktiviert. Anschließend kann man ArgyllCMS über Yast einfach installieren. Es ist dringend empfohlen gleich auch die Dokumentation mitzuinstallieren (welche sich dann im HTML-Format unter /usr/share/doc/packages/argyllcms-doc/ befindet). Dort sind auch alle unterstützten Kalibrationsgeräte ausführlich aufgelistet.

Nach dieser Vorarbeit war es eine schöner Zufall, dass ich mir auf dem letzten nürnberger Wikipedianertreffen ein „Eye-One Display 2“ ausleihen konnte, um damit meine beiden Bildschirme zu kalibieren. Da die Dokumentation von ArgyllCMS einen doch einigermaßen erschlagen kann und viele Experimentiermöglichkeiten bietet, dauerte es eine Weile bis ich durchstieg. Letztlich stellte sich heraus, dass die erstellten Profile erhebliche Farb- und Kontrastverbesserungen gegenüber dem unkalibierten Bildschirm brachten, ich aber zwischen einem in einer einfachen Messung erstellten Profil und einem aufwendiger gemessenen Profil keinen Unterschied erkennen konnte.

Einfache Kalibration:

Fürs Erste reicht es also vollkommen aus ein ganz einfaches Profil zu erstellen, indem man die Helligkeit auf oder nahe dem Maximum einstellt (für maximale Helligkeitsdifferenz und somit genauere Messung), eine Konsole mit Rootrechten öffnet, das Kolorimeter an den Rechner anschließt und folgenden Befehl ausführt:

dispcal -v -yl -o Mein_Bildschirmprofil

Sollte man einen Röhrenmonitor haben gibt man statt „-yl“ einfach „-yc“ ein. Das Programm fordert einen nun auf das Kalibrationsgerät auf dem nun erscheinenden Farbfleck auf dem Display zu legen und anschließend kann die Kalibration (im Menüpunkt 7) gestartet werden. Nachdem das Programm fertig ist kann man das neuerstellte Profil testweise laden:

dispwin Mein_Bildschirmprofil.icc

Es sollte nun eine bemerkbare Farbveränderung des Bildschirms stattgefunden haben. Um das Profil wieder aus der Grafikkarte zu entfernen gibt man

dispwin -c

ein und alles ist wie vorher. Es sollte aufgefallen sein, dass der Bildschirm mit geladenem Profil etwas mehr warm-orange wirkt.

Generell haben praktisch alle Bildschirme einen Blaustich und da das menschliche Sehsystem permament Farbstiche zu neutralisieren sucht (Farben sind „Informationsdifferenz“ zum Durchschnitt der Umgebung) fällt einem das helle Blau nach einer Weile nicht mehr unmittelbar auf. Viele Benutzer verstärken dies noch zusätzlich, indem sie die Farbtemperatur des Bildschirms auf sehr hohe Werte stellen. Dies hat zur Folge, dass der Bildschirm sehr hell und klar erscheint und insbesondere Blautöne, wie Himmel, strahlend blau wirken. Jedoch leiden darunter vor allem Fotos, da die Ockertöne von Haut nun eher ungesund und blass aussehen. Deswegen wird man beim Bildschirmkauf im Laden fast immer nur Demos mit Wasser, Himmel und neuerdings im HDR-Wahn mit heiterer Bewölkung finden und der Käufer ist im wahrsten Sinne des Wortes geblendet. Daheim beim Betrachten der Digicamschnappschüsse, welche in aller Regel Fotos von Menschen sind, ist man dann enttäuscht und fragt sich „ob man wirklich so scheiße aussieht wie auf dem Bild“. Nein tut man nicht. Der Bildschirm und die Digicam sind falsch.

Feintuning:

Um bestmögliche Resultate zu erzielen hat man bei Laptops wenig Tuningmöglichkeiten außer einen Wert nahe der maximalen Helligkeit einzustellen. Allerdings wandert der sogenannte Weißpunkt zumindest bei meinem Samsung-NC-10-Netbook bei großer Helligkeit noch weiter Richtung Blau. Um für alle Helligkeiten einen annehmbare Annäherung des Weißpunktes zu finden kann man in diesem Fall bei der Kalibration eine Helligkeit um 80 – 90 % ausprobieren. Bei LCD-Bildschirmen für PCs empfielt es sich die Farbeinstellung des Monitors auf Standardwerten zu haben. Zurücksetzen auf Herstellereinstellungen und 100% Helligkeit ist daher grundsätzlich keine falsche Ausgangsbasis. Insbesondere Kontrast (der dort nur über eine Helligkeitsänderung simuliert wird) und Farbtemperatur sollten man bei der Kalibration von LCDs nur dann ändern, wenn man alles Andere bereits ausprobiert hat. Bei Röhrenmonitoren empfielt es sich die Farbtemperatur und den Kontrast interaktiv mit Dispcal auf möglichst korrekte Werte vor der Kalibration anzupassen, da diese Geräte auch intern rein analog arbeiten.

Nachdem man dies gemacht hat kann man dann auch ein genaueres Profil (mit 836 Einzelfarbmessungen, für mehr siehe die Hilfe von targen) mit folgenden Befehlen erstellen („yl“ oder „yc“ jeweils passend zum Monitortyp):

dispcal -v -yl -F Mein_Bildschirmprofil
targen -v -d3 Mein_Bildschirmprofil
dispread -F -yl -v -k Mein_Bildschirmprofil.cal Mein_Bildschirmprofil
colprof -v -D "Name meines Bildschirms" -qh -as Mein_Bildschirmprofil

Das fertige Profil findet sich wieder in „Mein_Bildschirmprofil.icc“. dispcal erstellt in diesem Fall ein Vorkalibrationsprofil (Mein_Bildschirmprofil.cal), welches bei der eigentlichen Kalibration mit dispread bereits in die Grafikkarte geladen wird und somit für genauere Messung sorgt. targen erzeugt die Tabelle der zu messenden Farbfelder und colprof erstellt ein fertiges Profil mit „hoher Qualität“ (-qh). Insbesondere bei Röhrenmonitoren empfielt sich bei dispcal und dispread die Option „-F“, welche den Bildschirm schwarz stellt, da auf Röhrenmonitoren helle Bildschirmbereiche stark in dunkle Bereiche austrahlen und somit den Schwarzpunkt verfälschen. Allerdings muss man bei der Option „-F“ die Programme blind bedienen und sollte also ein paarmal spielen und sich merken wann man welche Taste drücken muss.

Dauerhafte Konfiguration:

Will man das Bildschirmprofil pro Benutzer installieren geht dies ganz einfach mit:

dispwin -I Mein_Bildschirmprofil.icc

Das Profil wird dadurch in einen tief verschachtelten Ordner unterhalb von ~/.local/share/color abgelegt. Der genaue Pfad steht in ~/.config/color.jcnf. Diese Informationen muss man aber nicht unbedingt wissen. Damit das Profil dauerhaft bei jedem Neustart geladen wird trägt man in seine lokale .xinitrc folgenden Befehl ein:

dispwin -L

Möchte man global für alle Benutzer das Profil beim Starten des X-Servers laden kopiert man das Profil bspw. nach /usr/local/share/color/Mein_Bildschirmprofil.icc und trägt in der globalen /etc/X11/xinit/xinitrc „dispwin /usr/local/share/color/Mein_Bildschirmprofil.icc“ ein.

Mit beiden Methoden wird man jedoch beim Fortsetzen einer Computersitzung aus dem Tiefschlaf („Suspend to Disk“) feststellen, dass das Profil nicht geladen ist. Für diesen Fall muss man dann entweder händisch oder mittels eines geeignet in der Energieverwaltung des Rechners eingetragenen zusätzlichen Aufrufs von dispwin nach der entsprechenden obigen Variante das Profil nachladen. Der Grund hierfür ist, dass der Inhalt des Grafikkartenspeichers beim Tiefschlaf nicht vollständig mitgesichert wird und aufgrund des Forsetzens der Sitzung die xinitrc nicht erneut geladen wird. Man kann dieses Problem mittels eines geeigneten Aufrufs von „dispwin -D &“ umgehen, da in diesem Fall dispwin geladen bleibt und permanent den Monitor auf Änderungen überprüft. Zumindest auf meinem PC ist dies jedoch nicht ratsam, den ausdrücklich als experimentell gekennzeichneten Deamon-Modus von dispwin zu nutzen, da es nahezu 100% der verfügbaren CPU-Zeit beansprucht.

Zum Abschluss des schon eh überlangen Textes sei noch ein LWN-Artikel zum Thema Farben unter Linux empfohlen, der zwar nicht sonderlich in die Tiefe geht, aber auf weitere interessante aber leider noch weitgehend unbekannte Softwareprojekte rund um Farben und Linux verweist: SCALE 8x: Color management for everyone.