Meteorologen können künftige Wetterzustände nicht linear aus den jetzigen vorausberechnen und in die Zukunft extrapolieren. Der Grund für die Unsicherheit ist in den Wettermodellen selbst zu finden. Gitterpunktgrößen sind die Einheit, mit der numerische Vorhersagemodelle arbeiten. Diese Computermodelle beschreiben die Erdatmosphäre, in der sich das Wetter zusammenbraut, in Rastern von fünf mal fünf, zehn mal zehn oder 20 mal 20 Kilometern. Wie ein virtuelles Netz umspannen sie die Erde. Für jeden Gitterpunkt lassen sich Temperatur, Luftdruck, Feuchtigkeit, Niederschlagsraten oder Sonnenintensität in mehreren Höhenschichten um Stunden bis Tage in die Zukunft berechnen. Pro Anfangsbedingung liefert der Algorithmus ein Ergebnis in Zukunft. "Wenn sich die Anfangsbedingung jedoch geringfügig ändert, kommt hinten etwas anderes heraus. Aus einem Hochdruckgebiet wird auf einmal ein Monstrum von einem Tiefdruckgebiet mit Starkregen", erklärt Orlik.

Das Wetter ist eine nicht-lineare Gleichung, beeinflusst sich selbst und bleibt nur eine gewisse Zeit stabil. Regiert im Himmel über Österreich eine nordatlantische Strömung, kommt das System aus dem Tritt, wenn die Temperatur in Island nicht wie vorhergesagt fünf, sondern nur vier Grad erreicht.

Wetterstationen liefern die Messdaten. Die ersten wurden in Telegrafenbüros untergebracht. Es folgten Wetterwarten auf Leuchttürmen, Vulkaninseln, Ölplattformen und in Städten. Eine der mondänsten Adressen war jene des amerikanischen Wetterdienstes unter dem Dach des Rockefeller Plaza in New York City, eine der einsamsten steht auf der norwegischen 200-Einwohner-Insel Utsira. "Für eine fehlerfreie Prognose müssten wir allerdings jeden Kubikzentimeter der Atmosphäre beschreiben", sagt Orlik. Jeder Mensch müsste eine kleine Wetterstation vor jedes Fenster seines Zuhauses hängen, die ihre Daten an einen zentralen Rechner funkt. Dann wäre die Vorhersage präzise, aber die Rechner würden unter dem Datenvolumen kollabieren.
Jedes Molekül beeinflusst jedes Nachbarmolekül und die komplexe Summe ergibt den Gesamtzustand. Dass man ihn überhaupt vorhersagen kann, grenzt an ein Wunder, denn die Datenmengen sind sogar für Hochleistungsrechner enorm. So gesehen ist die Wettervorhersage eine Glanztat der Präzision.

Versuche sind seit dem Altertum überliefert. Lostage, als Bauernregeln bekannt, sind Bemühungen, die Jahreszeiten in wetterrelevante Abschnitte zu unterteilen. Der deutsche Physiker Otto von Guericke erkannte 1660 erstmals den Zusammenhang zwischen abfallendem Luftdruck und dem Aufzug von Unwettern. Ein europäisches Stationsnetz entstand ab 1800. Da die Messergebnisse aber von reitenden Boten in Geschwindigkeiten von maximal 120 Kilometern pro Tag überbracht wurden, konnte von "Prognose" keine Rede sein, denn der Wind legt bis zu 60 Stundenkilometer zurück. Erst nachdem Samuel Morse 1844 die erste Telegrafenlinie zwischen Washington und Baltimore in Betrieb genommen hatte, ließ sich von "Vorhersage" sprechen.

Der Telegraf brachte Information in Echtzeit von A nach B. Er ließ die Welt zusammenrücken und schuf im Falle des Wetters "Zeit und Raum. Sobald entsprechende Informationen über große Entfernungen hinweg ausgetauscht werden konnten, konnten die Stücke des Himmels wie Puzzlesteine zu einem Gesamtbild zusammengefügt werden", schreibt Andrew Blum in seinem neuen Buch, "Die Wettermacher" (Penguin), in dem er die Geschichte der Wetterprognosen nachzeichnet.