Peter Geffert, 29. November 2013
Totgeweihte leben länger
Neues vom „Adventsstern“ ISON im GIZ-Vortrag zu Kometen
Etwas fälschlich wurde er in den letzten Wochen in den Medien als „Weihnachtsstern“ oder „Adventsstern“ angekündigt. Er, der Komet ISON oder genauer C/2012 S1 ISON, ist ein Besucher aus der
Oorthschen Wolke und hat damit bis heute eine Distanz von etwa 1,6 Lichtjahren hinter sich gebracht. Seit einiger Zeit konnte man ihn am frühen Morgenhimmel mit den kometentypischen Gas-
und Staubschweifen erblicken. Am vergangenen Donnerstag vollführte er schließlich ein einmaliges Schauspiel: er kam bei seinem Periheldurchgang der Sonne mit einem Abstand von 1,17 Millionen
Kilometern näher als ihr Durchmesser misst. Üblicherweise bedeutet dies, dass der Himmelskörper zum Untergang verurteilt ist, weil er nur aus Trockeneis, Wassereis und Staub besteht. Doch
ISON überraschte die Forscher. Davon berichtete am vergangenen Freitag Peter Geffert von der Starkenburg Sternwarte e.V. Heppenheim in seinem Vortrag „Kometen – Vagabunden des Sonnensystems:
ISON, PANSTARRS, Hale-Bopp und ihre Kollegen“ im gut besuchten Sitzungssaal des Geodätischen Observatoriums Wettzell.
Dabei wurde ISON erst am 21. September 2012 von einem russischen, astronomischen Suchprogramm mit Namen „International Scientific Optical Network“ entdeckt. Etwa 30 Teleskope an 20 verschiedenen
Standorten suchen und verfolgen darin permanent verschiedene Objekte im All, unter anderem Kometen. Weil neue Himmelskörper von ihren Entdeckern benannt werden dürfen, erklärt sich so auch der
Name des Kometen ISON aus den Kürzeln des Suchprogramms. Seit seiner Entdeckung war damit seine Bahn gut bekannt, die am vergangenen Donnerstag um ca. 20 Uhr unserer Zeit zu dem spektakulären
Schauspiel führte. Dieses wurde unter anderem von den Sonnenbeobachtungssatelliten Lasco C2 und Lasco C3 des Solar and Heliospheric Observatory (SOHO) verfolgt und lieferte interessante Bilder,
die Astronomen weltweit zum rätseln, schwärmen und diskutieren brachten. Dabei zeigte sich, anders als erwartet, dass wahrscheinlich Teile des Kometen überlebt haben. Davon, ob dies wirklich so
ist, kann sich dann jeder selbst überzeugen, wenn der Himmelskörper ab dem 5. Dezember am Morgen, ab dem 15.12. auch am Abendhimmel und ab etwa Weihnachten fast die ganze Nacht sichtbar sein
wird.
Während Kometen heutzutage die Menschen faszinieren, galten sie lange Zeit als Unglücksboten. Oft vermischt sich aber auch heute noch die Angst, dass so ein Himmelskörper wie am 15. Februar
dieses Jahres im russischen Tscheljabinsk, auf die Erde stürzen könnte. Dabei ist die Gefahr sehr geringen. Kometen bestehen anders als Meteoriden nicht aus Gestein, sondern sind mehr oder
weniger große „schmutzige Schneebälle“ auf einer sehr stark elliptischen Bahn quer durch das Sonnensystem. Auf ihrem Weg unterliegen sie zahlreichen Kräften unter anderem von den Himmelskörpern,
die ihre Bahnen beeinflussen. Speziell die großen, äußeren Planeten des Sonnensystems können dabei die Umlaufzeiten der Kometen stark verändern. Kommt ein Komet schließlich der Sonne näher als
die Marsbahn, bildet sich um ihn ein Kometenkoma, ein Gas- und ein Staubschweif. Verursacht durch den Strahlungsdruck und den Sonnenwind richtet sich der Gasschweif immer von der Sonne weg,
während der Staubschweif die überstrichene Bahn mit abgestoßenen Staubpartikeln übersät. Durchdringt die Erde solche Bahnen, kommt es zu häufigen Sternschnuppen, wie zum Beispiel bei den
Perseidenschauern jedes Jahr.
Nicht nur deshalb sind Kometen faszinierende Himmelskörper, die einer genaueren Erforschung bedürfen. Zu diesem Zweck wird sich im Mai 2014 ein weiteres Ereignis anbahnen. Die Sonde Rosetta soll
sich dann nämlich nach ihrem zehnjährigen Flug dem Kometen Tschurjumow-Gerasimenko annähern und ihn ein Stück begleiten, so dass im November sogar die Landungssonde Philea auf dem „Eisball“ lande
kann. Es bleibt also spannend.
Karl Spanowsky, 20. Juni 2013
Bewahrer der lebenswichtigen Wasserqualität
GIZ-Vortrag über die Qualität in unseren Gewässern und deren Erhalt
Nach den ganzen Hochwasserkatastrophen der vergangenen Wochen, in denen örtlich teilweise in ein paar Tagen so viel Regen viel, wie sonst in einem ganzen Jahr, kann man es kaum glauben, dass
Wasser wertvoll und teilweise Mangelware ist. Speziell sauberes Wasser wird nicht nur als Trinkwasser benötigt, es ist auch die Grundlage jedes Lebens in der Natur. Die heutige Wasserversorgung
stellt zumindest in Deutschland genügend Frischwasser zur Verfügung. Doch der Verbrauch dieses Wassers hinterlässt Mengen von Abwasser mit allen möglichen Verunreinigungen. Eine Stadt mit
zwanzig- bis dreißigtausend Einwohnern produziert zum Beispiel pro Sekunde 10 Liter Abwasser. Früher lief dieses einfach in die Flüsse und Bäche und führte dort zu ungeahnten Veränderungen.
Moderne Kläranlagen helfen heutzutage sehr effektiv, die meisten Verunreinigungen herauszuholen. Was dabei alles im Wasser zu finden ist und welchen Aufwand die Reinigung und die Kontrolle der
Wasserqualität bedarf, zeigte am vergangenen Donnerstag Karl Spankowsky vom Wasserwirtschaftsamt Donauwörth in seinem GIZ-Vortrag "Wie sauber ist unser Wasser? Umweltschutz in der
Wasserwirtschaft". Dieser schloss die Vortragsreihe zum Jahr des Wassers ab.
Die Klärung läuft dabei über verschiedene Stufen, wie der Laborleiter des Wasserwirtschaftsamtes zu berichten wusste. Erst wird in einem Rechenhaus der gröbere Schmutz entfernt. Nach dem
Sandabfang und Fettabscheider fließt das so vorgereinigte Wasser in ein Belebungsbecken, in dem Bakterien unter Zugabe von Sauerstoff die organischen Bestandteile abbauen. Nach dem Nachklärbecken
kann das gereinigte Wasser in die Flüsse rückgeführt werden.
Diese Wasserreinigung ist zum Schutz der Umwelt sehr wichtig. Das Faulen von organischen Stoffen, wie Kohlehydrate, Fette und Eiweiße, kann nämlich zu Sauerstoffmangel in Gewässern und damit zu
großem Fischsterben führen. Dies ist auch eine Gefahr bei den heutigen Biogasanlagen, wenn sie nicht genügend vor Überlauf geschützt sind. Dort wird gerade der Faulungsprozess zur
Energiegewinnung eingesetzt. Schon bei relativ kleinen Anlagen können die bei der Eiweißzersetzung entstehenden Ammoniumverbindungen bei Einleitung in Gewässer einen Fluss über 20 bis 30
Kilometer absterben lassen. Ausschlaggebend ist ein sensibles Gleichgewicht zwischen Ammoniakgas und Ammonium, das je nach Temperatur unterschiedlich ist und so je nach Jahreszeit
unterschiedliche Schäden in der Natur hinterlässt, wie zum Beispiel flächendeckendes Fischsterben im Sommer.
Zudem Filtern Kläranlagen Phosphor-Verbindungen aus dem Abwasser. Diese sind in Waschmitteln und in Düngern. Phosphor fördert unter anderem das Blaualgenwachstum. Auch wenn Gülle ein idealer
Dünger ist, beinhaltet es 100000 Mal mehr Phosphor als Frischwasser in einem Baggersee und immerhin noch etwa 1000 Mal mehr als gut gereinigtes Abwasser. Somit ist es wichtig, dass nur gezielte
Mengen auf den Wiesen eingesetzt werden, so dass kein unbeabsichtigter Ablauf in die Gewässer stattfinden kann.
Die wohl größten Gefahren gehen aber von den Spurenelementen aus, die schlecht abbaubar, giftig, hormonverändernd, erbgutschädigend oder krebserregend sein können. Dazu gehören Zinnorganische
Verbindungen aus Bootslacken, PCB aus Kondensatoren, DEHP aus Kunststoffen, Glyphosphat aus Pflanzenschutzmitteln, Perfluorierte Tenside aus Imprägniersprays, natürliche Uranauswaschungen von
landwirtschaftlichen Nutzflächen, Quecksilber oder andere Schwermetalle aus der Industrie, Medikamente oder auch Chlorphenol in Toilettensteinen und Korrosionsschutzmittel aus den Tabletten für
Geschirrspülern. Es handelt sich zwar nur um kleine Einzelmengen, die aber in der Summe langlebig große Wirkungen entfalten. So stellt sich am Ende die Frage, ob man als Konsument wirklich alle
diese Produkte benötigt, wenn es auch ökologischere Ersatzstoffe gibt, die unsere lebenswichtige Wasserqualität bewahren.
Dr. Andreas Güntner, 16. Mai 2013
Was die Erdanziehung über das Grundwasser verrät
GIZ-Vortrag über den Einsatz der Gravimetrie zur Erkundung von Wasserspeichern
Über siebzig Prozent der Erde sind mit Wasser bedeckt. Doch volumenmäßig macht Wasser nur einen geringen Teil aus. Hätte die Erde die Größe eines Basketballs, würde das gesamte Wasser der Erde
nur das Volumen eines Tischtennisballs füllen. Davon wäre wieder der größte Teil Salzwasser. Nur etwa ein Stecknadelkopf wäre im vorigen Vergleich mit Trinkwasser gefüllt. Da aber gerade dieses
für Pflanzen, Tiere und Menschen von entscheidender Bedeutung ist, ist die Suche nach Trinkwasserspeichern und die Erforschung zugrundeliegender Einflüsse und Kreisläufe besonders wichtig. Dazu
werden heute neben klassischen, hydrologischen Methoden auch Instrumente genutzt, welche die Erdschwere und deren Veränderungen an einem Ort präzise messen können. Über den Einsatz dieser
Gravimeter bei der Erforschung von unterirdischen Wasserveränderungen berichtete am vergangenen Donnerstag Dr. Andreas Güntner vom Deutschen GeoForschungsZentrum (GFZ) Potsdam in seinem
GIZ-Vortrag „Neue Verfahren zur Erfassung unterirdischer Wasserressourcen“.
Hintergrund der Untersuchung von unterirdischen Wasserspeichern ist eine einfache Formel für die kontinentale Wasserbilanz: die Menge an Niederschlag verteilt sich in die Mengen aus Wasserabfluss
plus Wasserverdunstung plus Wasserspeicherung. Die einzelnen, zugrundeliegenden Vorgänge sind dabei aber ziemlich komplex. So ist es auch nicht verwunderlich, dass man als Laie schon mal den
Erfahrungen eines Wünschelrutengängers vertraut. Dabei ist aber die klassische Vorstellung von Wasseradern im Boden nicht zutreffend, da das Wasser flächenhaft den Untergrund ausfüllt.
Wissenschaftler nutzen deshalb zur Erkundung von Wasservorkommen und deren Veränderungen Bodenfeuchtesensoren, Grundwasserpegel und andere Instrumente, wie zum Beispiel ein sogenanntes Lysimeter.
Dabei handelt es sich um eine Waage, die einen etwa 1,5 Kubikmeter und 3 Tonnen schweren Block aus Erdreich mit einer Auflösung von 10 Gramm kontinuierlich wiegt. Somit können kleinste
Wassereinträge, aber auch die verdunstete Wassermenge registriert werden. Neben diesen punktuellen Aufzeichnungen kommt auch die Gravimetrie ins Spiel, die das von Isaac Newton erkannte
Naturgesetz ausnutzt, dass jede Masse, also auch Wasser, eine Gravitationskraft ausübt. Ziel ist es, anhand der zeitlichen Änderungen in der örtlichen Erdschwere Erkenntnisse über
Massenverhältnisse aufgrund zeitlicher Schwankungen der gespeicherten Wassermengen im Untergrund abzuleiten. Diese machen sich in der Erdbeschleunigung, die man in der Schule mit 9,81 Meter pro
Sekunde im Quadrat lernt, an der siebten Stelle nach dem Komma bemerkbar.
Zum Einsatz kommen hier unter anderem Satelliten, die aufgrund ihrer Bewegung um die Erde Gravitationsschwankungen unmittelbar spüren. Missionen, wie zum Beispiel die beiden GRACE-Satelliten, die
in einem Abstand von 250 Kilometern in einer Höhe von 470 Kilometern um die Erde kreisen und permanent ihren Abstand zueinander bestimmen, lassen aus ihren Messungen auf Gravitationsschwankungen
rückschließen. Sichtbar werden dabei globale Veränderungen, wie zum Beispiel der Gletscherrückgang in Grönland, Alaska und Patagonien, Dürreperioden in Australien und Südamerika, aber auch große
Grundwasserentnahmen, wie zum Beispiel für die Bewässerung in Kalifornien, China, Pakistan und um den Euphrat und Tigris.
Ergänzt werden diese Messungen lokal durch permanent installierte supraleitende Gravimeter. Sie messen anhand von supraleitenden Spulen und einer in ihren Magnetfeldern gefangenen Niob-Kugel
feinste Veränderungen in der lokalen Erdanziehung. Da das Geodätische Observatorium Wettzell seit den 1980er Jahren supraleitende Gravimeter einsetzt, bot es seit einigen Jahren auch ideale
Voraussetzungen für die Forschungsvorhaben des GFZ. Dabei stellten die Gravimeter ihre Leistungsfähigkeit für die Hydrologie unter Beweis und man konnte zum Beispiel messen, dass es in Wettzell
nach dem Hitzesommer 2003 über vier Jahre dauerte, bis sich der Grundwasserspiegel wieder erholt hatte. Dabei wird deutlich, wie sensibel die Prozesse um unser lebensnotwendiges Trinkwasser sind.
Prof. Rudolf Metzka, 18. April 2013
Was Noah hätte tun können, um sich vor der Sintflut zu schützen
GIZ-Vortrag über modernen, integrierten Hochwasserschutz
Eigentlich war es nur ein kleiner, aber umso heftigerer Regenschauer, der den sonst so friedlichen, idyllischen und völlig ungefährlichen Bachlauf in einen reißenden Fluss verwandelt hat. Wo
sonst Fischer am ruhigen Gewässer stehen, war binnen kurzer Zeit landunter. Solche Szenarien spielen sich immer wieder ab. Jahrhunderthochwasser, wie zuletzt 2002 in vielen Teilen Deutschlands,
sind selten, betreffen aber das öffentliche Leben erheblich und verursachen enorme Schäden. Moderne Konzepte, bei denen auch traditionelle Techniken und Landschaftsplanungen zum Tragen kommen,
können hier Abhilfe schaffen. Zusammengefasst ergibt sich ein integrierter Hochwasserschutz. Darüber referierte am vergangenen Donnerstag Professor Rudolf Metzka von der Technischen Hochschule
Deggendorf in seinem GIZ-Vortrag „Integrierter Hochwasserschutz mit Beispielen aus der Region“.
Im wesentlichen ist integrierter Hochwasserschutz eine Schutzstrategie, die in drei Teilbereiche aufgeteilt wird: natürlicher Rückhalt als Vorbeugung, technischer Hochwasserschutz und
weitergehende Hochwasservorsorge. Ausgangspunkt ist der Wasserkreislauf und die lokalen Witterungsverhältnisse. Hochwasser entsteht nämlich aus Oberflächenwasser, also aus Wasser, das nach einem
Regen nicht versickern kann, nicht lokal gespeichert wird oder nicht verdunstet und damit oberirdisch zusammenfließt. Somit ist es beim Hochwasserschutz in erster Linie wichtig, das Einzugsgebiet
der Gewässer und ihren Aufbau aus Flussläufen, Mündungen und Auen zu kennen.
Eine Vergrößerung dieser natürlichen Zwischenspeicher schafft somit eine Verbesserung des Rückhaltevermögens. Ein wichtiger Faktor hierbei ist die schonende und optimierte Bewirtschaftung von
landwirtschaftlichen Nutzflächen. Starke Verdichtungen, das Fehlen von Mulchsaaten, langhaltender Begrünung oder „Zwischenfruchten“ versiegeln die Böden und führen zu Oberflächenabflüssen.
Gegenmaßnahmen sind unter anderem Umnutzungen sensibler Bereiche. An gegebener Stelle kann Wald zum Beispiel mehr Wasser speichern und rückhalten als landwirtschaftliche Nutzflächen. Kleinräumige
Strukturen mit Ackerfurchen parallel zum Hang und zwischengelagerten Feldrainen verhindern weiter den Abfluss. Zur Schaffung von weiteren Puffern sind auch die Auen zu reaktivieren, Gewässer mit
„Himmelsteichen“ oder naturähnlichen Mäanderstruktur zu renaturieren und Überflutungspolder als Rückhalteraum zu schaffen.
Kommt es zum Hochwasser, greifen die technischen Hochwasserschutzmaßnahmen. Das sind technische Bauwerke entlang von Flüssen, wie zum Beispiel Deiche, Mauern, mobile Elemente, gegliederte
Flussprofile, Flutmulden und künstliche Rückhaltebecken. Solche Maßnahmen findet man heutzutage in vielen Städten und Gemeinden. Letztendlich ist technischer Hochwasserschutz dabei immer eine
Frage der Finanzmittel und der Integrierbarkeit in die örtlichen Gegebenheiten.
Die Hochwasservorsorge zielt schließlich auf zukünftige Planungen ab und greift auf Erfahrungen, Fallanalysen und Computersimulationen zurück. Vorsorgliche Maßnahmen beinhalten das Freihalten von
Überschwemmungsland oder die Förderung einer Bauleitplanung. Zudem sind Pfahlbauten oder geeignete Bauvorschriften in der Bauvorsorge zielführend. Die Verhaltensvorsorge bildet dann der
Hochwassernachrichtendienst mit seinen Meldestufen, Warnsystemen und der Verhaltensführung von betroffenen Bürgern.
Bei der Planung im Wasserbau fließen alle diese Teile ein, wenn Einzugsgebiete analysiert, Flussgebietsmodelle entwickelt, Landschaften kartiert, Strömungsmodelle berechnet, Schutzkonzepte
erdacht und in ihrer Wirkung analysiert werden. Auf diese Art können die Risiken von Hochwassern verringert werden. Doch kein Konzept kann alle Gefahren generell beseitigen, und so wird man auch
weiterhin von Zeit zu Zeit von Jahrhunderthochwassern hören oder lesen.
Hermann Gruber, 21. März 2013
Waldwasser – der wertvolle Rohstoff aus der Region
GIZ-Vortrag über Trinkwasser des Zweckverbands „Wasserversorgung Bayerischer Wald“
Keine Verbindung von Elementen des chemischen Periodensystems ist für das Leben so wichtig, wie die aus zwei Wasserstoffatomen und einem Sauerstoffatom. Gemeinhin als Wasser bekannt, ist es der
Ausgangspunkt allen uns bekannten Lebens. Zwei Drittel unseres Körpers bestehen daraus. Es ist einer der wichtigsten Rohstoffe der Industrie, deren Produkte auf den Wasserstraßen der Erde zudem
weltweit transportiert werden. Für uns hier steht es jederzeit und in hoher Qualität zur Verfügung und fließt bei Bedarf einfach aus der Leitung. Trotzdem steckt ein erheblicher Aufwand hinter
der Versorgung mit diesem „Grundnahrungsmittel“. Dem Thema „Wasser“ widmet sich die Vortragsreihe des Fördervereins Geodätisches Informationszentrum Wettzell e.V. zum internationalen Jahr des
Wassers, die Hermann Gruber vom Zweckverband Wasserversorgung Bayerischer Wald (WBW) mit seinem Vortrag "Waldwasser - Natürliches Leitungswasser aus der Region" am vergangenen Donnerstag
einläutete.
Der eher unkonventionell gehaltene Vortrag führte mit einem zwanzigminütigen Informationsfilm auf das Thema hin und ging unmittelbar in eine lebhafte Diskussionsrunde über, in der die Zuhörer
direkt Fragen über ihr Wasser aus der Leitung stellen konnten. Dabei konzentrierte man sich gezielt auf den Bayerischen Wald und das Isarmündungsgebiet. Beide werden vom WBW betreut, gewinnen ihr
Wasser aber aufgrund der geologischen Gegebenheiten über ganz unterschiedliche Verfahren. Ausgangspunkt ist der Wasserkreislauf: Regen aus den Wolken fällt auf den Boden, versickert, tritt wieder
zu Tage, bildet Bäche, verdunstet und bildet wieder Wolken, die dann wieder abregnen.
Auf diese Weise fallen so jährlich etwa 1500 Liter Regenwasser pro Quadratmeter auf das betreute Gebiet des WBW. Dieses versickert im Bayerischen Wald mit seinen Granit- und Gneisschichten durch
Klüfte und tritt später in Form von zahlreichen Quellen wieder zu Tage. Dieses Oberflächenwasser muss in Talsperren aufgefangen werden, damit es als Trinkwasser genutzt werden kann. Im
Isarmündungsgebiet speichern dagegen Kiesschichten das Wasser als Grundwasser. Dieses wird dann schonend aus bis zu 10 Metern Tiefe als sogenanntes Quartärwasser zu Tage befördert. Es ist durch
kalkhaltige Schotter mit Mineralien angereichert und damit verglichen mit dem in einer Trinkwassertalsperre gesammelten Quellwasser aus dem Bayerischen Wald wesentlich härter.
Somit bilden sich zwei Versorgungszonen aus. Für unser Gebiet wird das Wasser aus der Trinkwassertalsperre Frauenau entnommen. Sieben Jahre hatte der Bau in den späten 1970er Jahren gedauert. Sie
versorgt aktuell sechs Landkreise, darunter 80 Städte und Gemeinden, und damit eine Fläche von 5000 Quadratkilometern mit qualitativ hochwertigem Trinkwasser. Zusammen mit den eigenen
Gemeindebrunnen ist die Wasserversorgung damit auch in Trockenperioden über mindestens zwei Jahre hinweg gesichert, auch wenn aktuell 500 Liter pro Sekunde aus dem See entnommen werden. Das
entnommene Wasser wird gefiltert und „aufgehärtet“ und unterliegt jährlich 8000 Kontrollen, um seine Qualität zu sichern. Pumpwerke, wie zum Beispiel in Flanitz oder Hochbehälter verteilen das
wertvolle Nass dann an die Gemeinden, die die Vergabe an die Endverbraucher regeln. Da die Trinkwassertalsperre auf rund 700 m Höhe liegt, reicht in der Regel das natürliche Gefälle für den
Transport zum Verbraucher. Dabei läuft es sogar über Generatoren und sorgt für eine Energierückgewinnung zu elektrischem Strom. Der Verbraucher bekommt damit nicht nur Leitungswasser, welches als
eingetragene Marke „Waldwasser“ zur Verfügung steht, seine Qualität wird auch mittels Schutzzonen im Einzugsgebiet garantiert. Zudem ist es im Vergleich mit den Mineralwässern aus dem Supermarkt
bei mindestens gleicher Qualität extrem viel günstiger, und das ohne Schleppen von Kisten einfach aus dem Wasserhahn.
Prof. Ulrich Schreiber, 21. Februar 2013
Wenn die vergehende Zeit exakt gemessen werden kann
GIZ-Vortrag über optischen Uhren und deren Genauigkeit
Unser tägliches Leben ist bestimmt von Uhren und deren Zeit. Zu Hause durch die Pendeluhr, am Handgelenk durch die Quarzuhr oder am Bahnhof mittels einer Funkuhr geben Uhren uns den Takt vor.
Alle Uhren haben dabei ein ähnliches Funktionsprinzip: ein Generator erzeugt eine Schwingung, die zu festen Zeitpunkten eine Zuordnung einer Zeitmarke erlaubt und dabei eine Anzeige
weiterschaltet. Ob mechanische Uhr, Quarzuhr, Cäsium-Atomuhr oder die neuesten optischen Uhren, sie alle folgen diesem Aufbau, auch wenn sie in der Umsetzung andere Techniken einsetzen.
Allerdings sind heutige optische Uhren eine Billiarde Mal genauer als jede herkömmliche Pendeluhr. Dadurch erlauben sie nicht nur eine genaue Zeitbestimmung, sie bieten auch viel Spielraum für
wissenschaftliche Fragestellungen. Darüber referierte am vergangenen Donnerstag Prof. Dr. Ulrich Schreiber von der Technischen Universität München in seinem Vortrag des Fördervereins Geodätisches
Informationszentrum Wettzell e.V. mit dem Titel „Gekämmtes Licht – Wie Atomuhren genauer werden“, der wieder zahlreiche Zuhörer ins Geodätische Observatorium Wettzell führte.
Prof. Schreiber, der in seiner neuen Aufgabe im Projekt „Atomic Clocks Ensemble in Space (ACES)“ als wissenschaftlicher Leiter für die Zeitübertragung zur Internationalen Raumstation ISS
verantwortlich zeichnet, führte langsam in die Tiefen der Physik hinter der Zeitmessung mit Atomuhren ein. Dabei ist Zeit nicht nur in unserem Alltag essentiell. Auch geodätische Messverfahren
ermitteln Distanzen mittels der Messung der Laufzeiten von Licht, wie zum Beispiel bei der Laserentfernungsmessung. Dies ist möglich, da Zeit die physikalisch am genauesten bestimmbare Einheit
darstellt. Während die ersten Uhren im 14. Jahrhundert noch täglich um über eine viertel Stunde falsch gingen, liefern aktuellen Atomuhren eine Gangungenauigkeit von einer Sekunde in einer
Million Jahren. Zudem kann Zeit heute per Funk übertragen werden, wie zum Beispiel für alle Funkuhren in Deutschland in Form des DCF77-Signals aus Mainflingen. Zeit ist somit überall
verfügbar.
Doch diese Übertragung hat ihre Tücken. Da sich die Funkwellen mit Lichtgeschwindigkeit ausbreiten, benötigen die Signale selbst Zeit, bis sie beim Empfänger ankommen. Deshalb erreicht man über
Funk nur eine Genauigkeit von einer tausendstel Sekunde in einem Umkreis von etwa 300 Kilometern um den Sender. Mit der erreichbaren, extremen Genauigkeit von Atomuhren, wie sie unter
anderem am Observatorium Wettzell verwendet werden, schrumpft diese Zone auf 30 Zentimeter im Umkreis des Senders zusammen. Diese Strecke ist kleiner als die Atomuhr selbst, so dass es extrem
schwierig wird, den genauen Ort eines Uhrenstands zu bestimmen. Jedoch lassen sich Zeitintervalle, also die Zeitdifferenz zwischen zwei Zeitsignalen, einfach und fast beliebig genau
bestimmen.
Weitere Einflussfaktoren ergeben sich aus der Relativitätstheorie. Aufgrund der Zeitdilatation (Zeitdehnung) läuft nämlich eine bewegte Uhr langsamer als eine ruhende Uhr. Dies konnte 1972
eindrucksvoll in einem Versuch nachgewiesen werden, in dem Atomuhren von Washington aus in einem Flugzeug zu einer Reise um die gesamte Erde starteten und anschließend wieder mit einer Referenz
auf dem Boden verglichen wurden. Tatsächlich ergab sich der errechnete Zeitversatz. Auch geht eine Uhr an einem höheren Ort schneller als an einem tiefer gelegenen, was sich aus der Allgemeinen
Relativitätstheorie ergibt. Aktuell bedeutet dies, dass die Cäsium-Atomuhren in Wettzell einen Höhenunterschied von etwa 100 Metern auf diese Weise messen könnten.
Die genauesten Ergebnisse liefern heutzutage aber optische Uhren. Darin wird ein in der Frequenz abstimmbarer Laser auf ein in den elektischen Feldern einer Paul-Falle gefangenes, geladenes
Referenzatom eingestrahlt, das mittels Laserkühlung zum Bewegungsstillstand gebracht wurde. Die Einstrahlung des Laserlichts fragt dabei den Energiezustand des Ions ab und detektiert so die
Frequenz des passenden „Uhrenübergangs“. Danach erfolgt eine Frequenzumsetzung vom optischen in den elektrischen Bereich, da ein zeitlicher Puls mittels zahlreicher, geeignet überlagerter
Sinuswellen erzeugt werden kann. Diese bilden ein breites „Gitterwerk“, den „Frequenzkamm“, dessen Aufbau nur vom Abstand zwischen den Frequenzen und einer Verschiebung zum Nullpunkt bestimmt
wird. Für diese Erkenntnis gab es 2005 sogar einen Nobelpreis. Im Bereich der Geodäsie wird sie genutzt, um zwei Uhren über Glasfaser und mittels einer Zweiwegemessung der Laufzeiten zwischen den
Uhren starr miteinander zu koppeln und damit hochpräzise Zeitübertragung über hunderte Kilometer hinweg zu betreiben.