Peter Geffert, 29. November 2013
    Totgeweihte leben länger
    Neues vom „Adventsstern“ ISON im GIZ-Vortrag zu Kometen
    
    Etwas fälschlich wurde er in den letzten Wochen in den Medien als „Weihnachtsstern“ oder „Adventsstern“ angekündigt. Er, der Komet ISON oder genauer C/2012 S1 ISON, ist ein Besucher aus der 
    Oorthschen Wolke  und hat damit bis heute eine Distanz von etwa 1,6 Lichtjahren hinter sich gebracht. Seit einiger Zeit konnte man ihn am frühen Morgenhimmel mit den kometentypischen Gas-
    und Staubschweifen erblicken. Am vergangenen Donnerstag vollführte er schließlich ein einmaliges Schauspiel: er kam bei seinem Periheldurchgang der Sonne mit einem Abstand von 1,17 Millionen
    Kilometern  näher als ihr Durchmesser misst. Üblicherweise bedeutet dies, dass der Himmelskörper zum Untergang verurteilt ist, weil er nur aus Trockeneis, Wassereis und Staub besteht. Doch
    ISON überraschte die Forscher. Davon berichtete am vergangenen Freitag Peter Geffert von der Starkenburg Sternwarte e.V. Heppenheim in seinem Vortrag „Kometen – Vagabunden des Sonnensystems:
    ISON, PANSTARRS, Hale-Bopp und ihre Kollegen“ im gut besuchten Sitzungssaal des Geodätischen Observatoriums Wettzell.
    
    Dabei wurde ISON erst am 21. September 2012 von einem russischen, astronomischen Suchprogramm mit Namen „International Scientific Optical Network“ entdeckt. Etwa 30 Teleskope an 20 verschiedenen
    Standorten suchen und verfolgen darin permanent verschiedene Objekte im All, unter anderem Kometen. Weil neue Himmelskörper von ihren Entdeckern benannt werden dürfen, erklärt sich so auch der
    Name des Kometen ISON aus den Kürzeln des Suchprogramms. Seit seiner Entdeckung war damit seine Bahn gut bekannt, die am vergangenen Donnerstag um ca. 20 Uhr unserer Zeit zu dem spektakulären
    Schauspiel führte. Dieses wurde unter anderem von den Sonnenbeobachtungssatelliten Lasco C2 und Lasco C3 des Solar and Heliospheric Observatory (SOHO) verfolgt und lieferte interessante Bilder,
    die Astronomen weltweit zum rätseln, schwärmen und diskutieren brachten. Dabei zeigte sich, anders als erwartet, dass wahrscheinlich Teile des Kometen überlebt haben. Davon, ob dies wirklich so
    ist, kann sich dann jeder selbst überzeugen, wenn der Himmelskörper ab dem 5. Dezember am Morgen, ab dem 15.12. auch am Abendhimmel und ab etwa Weihnachten fast die ganze Nacht sichtbar sein
    wird.
    
    Während Kometen heutzutage die Menschen faszinieren, galten sie lange Zeit als Unglücksboten. Oft vermischt sich aber auch heute noch die Angst, dass so ein Himmelskörper wie am 15. Februar
    dieses Jahres im russischen Tscheljabinsk, auf die Erde stürzen könnte. Dabei ist die Gefahr sehr geringen. Kometen bestehen anders als Meteoriden nicht aus Gestein, sondern sind mehr oder
    weniger große „schmutzige Schneebälle“ auf einer sehr stark elliptischen Bahn quer durch das Sonnensystem. Auf ihrem Weg unterliegen sie zahlreichen Kräften unter anderem von den Himmelskörpern,
    die ihre Bahnen beeinflussen. Speziell die großen, äußeren Planeten des Sonnensystems können dabei die Umlaufzeiten der Kometen stark verändern. Kommt ein Komet schließlich der Sonne näher als
    die Marsbahn, bildet sich um ihn ein Kometenkoma, ein Gas- und ein Staubschweif. Verursacht durch den Strahlungsdruck und den Sonnenwind richtet sich der Gasschweif immer von der Sonne weg,
    während der Staubschweif die überstrichene Bahn mit abgestoßenen Staubpartikeln übersät. Durchdringt die Erde solche Bahnen, kommt es zu häufigen Sternschnuppen, wie zum Beispiel bei den
    Perseidenschauern jedes Jahr.
    
    Nicht nur deshalb sind Kometen faszinierende Himmelskörper, die einer genaueren Erforschung bedürfen. Zu diesem Zweck wird sich im Mai 2014 ein weiteres Ereignis anbahnen. Die Sonde Rosetta soll
    sich dann nämlich nach ihrem zehnjährigen Flug dem Kometen Tschurjumow-Gerasimenko annähern und ihn ein Stück begleiten, so dass im November sogar die Landungssonde Philea auf dem „Eisball“ lande
    kann. Es bleibt also spannend.
Karl Spanowsky, 20. Juni 2013
    Bewahrer der lebenswichtigen Wasserqualität
    GIZ-Vortrag über die Qualität in unseren Gewässern und deren Erhalt
    
    Nach den ganzen Hochwasserkatastrophen der vergangenen Wochen, in denen örtlich teilweise in ein paar Tagen so viel Regen viel, wie sonst in einem ganzen Jahr, kann man es kaum glauben, dass
    Wasser wertvoll und teilweise Mangelware ist. Speziell sauberes Wasser wird nicht nur als Trinkwasser benötigt, es ist auch die Grundlage jedes Lebens in der Natur. Die heutige Wasserversorgung
    stellt zumindest in Deutschland genügend Frischwasser zur Verfügung. Doch der Verbrauch dieses Wassers hinterlässt Mengen von Abwasser mit allen möglichen Verunreinigungen. Eine Stadt mit
    zwanzig- bis dreißigtausend Einwohnern produziert zum Beispiel pro Sekunde 10 Liter Abwasser. Früher lief dieses einfach in die Flüsse und Bäche und führte dort zu ungeahnten Veränderungen.
    Moderne Kläranlagen helfen heutzutage sehr effektiv, die meisten Verunreinigungen herauszuholen. Was dabei alles im Wasser zu finden ist und welchen Aufwand die Reinigung und die Kontrolle der
    Wasserqualität bedarf, zeigte am vergangenen Donnerstag Karl Spankowsky vom Wasserwirtschaftsamt Donauwörth in seinem GIZ-Vortrag "Wie sauber ist unser Wasser? Umweltschutz in der
    Wasserwirtschaft". Dieser schloss die Vortragsreihe zum Jahr des Wassers ab.
    
    Die Klärung läuft dabei über verschiedene Stufen, wie der Laborleiter des Wasserwirtschaftsamtes zu berichten wusste. Erst wird in einem  Rechenhaus der gröbere Schmutz entfernt. Nach dem
    Sandabfang und Fettabscheider fließt das so vorgereinigte Wasser in ein Belebungsbecken, in dem Bakterien unter Zugabe von Sauerstoff die organischen Bestandteile abbauen. Nach dem Nachklärbecken
    kann das gereinigte Wasser in die Flüsse rückgeführt werden.
    
    Diese Wasserreinigung ist zum Schutz der Umwelt sehr wichtig. Das Faulen von organischen Stoffen, wie Kohlehydrate, Fette und Eiweiße, kann nämlich zu Sauerstoffmangel in Gewässern und damit zu
    großem Fischsterben führen. Dies ist auch eine Gefahr bei den heutigen Biogasanlagen, wenn sie nicht genügend vor Überlauf geschützt sind. Dort wird gerade der Faulungsprozess zur
    Energiegewinnung eingesetzt. Schon bei relativ kleinen Anlagen können die bei der Eiweißzersetzung entstehenden Ammoniumverbindungen bei Einleitung in Gewässer einen Fluss über 20 bis 30
    Kilometer absterben lassen. Ausschlaggebend ist ein sensibles Gleichgewicht zwischen Ammoniakgas und Ammonium, das je nach Temperatur unterschiedlich ist und so je nach Jahreszeit
    unterschiedliche Schäden in der Natur hinterlässt, wie zum Beispiel flächendeckendes Fischsterben im Sommer.
    
    Zudem Filtern Kläranlagen Phosphor-Verbindungen aus dem Abwasser. Diese sind in Waschmitteln und in Düngern. Phosphor fördert unter anderem das Blaualgenwachstum. Auch wenn Gülle ein idealer
    Dünger ist, beinhaltet es 100000 Mal mehr Phosphor als Frischwasser in einem Baggersee und immerhin noch etwa 1000 Mal mehr als gut gereinigtes Abwasser. Somit ist es wichtig, dass nur gezielte
    Mengen auf den Wiesen eingesetzt werden, so dass kein unbeabsichtigter Ablauf in die Gewässer stattfinden kann.
    
    Die wohl größten Gefahren gehen aber von den Spurenelementen aus, die schlecht abbaubar, giftig, hormonverändernd, erbgutschädigend oder krebserregend sein können. Dazu gehören Zinnorganische
    Verbindungen aus Bootslacken, PCB aus Kondensatoren, DEHP aus Kunststoffen, Glyphosphat aus Pflanzenschutzmitteln, Perfluorierte Tenside aus Imprägniersprays, natürliche Uranauswaschungen von
    landwirtschaftlichen Nutzflächen, Quecksilber oder andere Schwermetalle aus der Industrie, Medikamente oder auch Chlorphenol in Toilettensteinen und Korrosionsschutzmittel aus den Tabletten für
    Geschirrspülern. Es handelt sich zwar nur um kleine Einzelmengen, die aber in der Summe langlebig große Wirkungen entfalten. So stellt sich am Ende die Frage, ob man als Konsument wirklich alle
    diese Produkte benötigt, wenn es auch ökologischere Ersatzstoffe gibt, die unsere lebenswichtige Wasserqualität bewahren.
Dr. Andreas Güntner, 16. Mai 2013
    Was die Erdanziehung über das Grundwasser verrät
    GIZ-Vortrag über den Einsatz der Gravimetrie zur Erkundung von Wasserspeichern
    
    Über siebzig Prozent der Erde sind mit Wasser bedeckt. Doch volumenmäßig macht Wasser nur einen geringen Teil aus. Hätte die Erde die Größe eines Basketballs, würde das gesamte Wasser der Erde
    nur das Volumen eines Tischtennisballs füllen. Davon wäre wieder der größte Teil Salzwasser. Nur etwa ein Stecknadelkopf wäre im vorigen Vergleich mit Trinkwasser gefüllt. Da aber gerade dieses
    für Pflanzen, Tiere und Menschen von entscheidender Bedeutung ist, ist die Suche nach Trinkwasserspeichern und die Erforschung zugrundeliegender Einflüsse und Kreisläufe besonders wichtig. Dazu
    werden heute neben klassischen, hydrologischen Methoden auch Instrumente genutzt, welche die Erdschwere und deren Veränderungen an einem Ort präzise messen können. Über den Einsatz dieser
    Gravimeter bei der Erforschung von unterirdischen Wasserveränderungen berichtete am vergangenen Donnerstag Dr. Andreas Güntner vom Deutschen GeoForschungsZentrum (GFZ) Potsdam in seinem
    GIZ-Vortrag „Neue Verfahren zur Erfassung unterirdischer Wasserressourcen“.
    
    Hintergrund der Untersuchung von unterirdischen Wasserspeichern ist eine einfache Formel für die kontinentale Wasserbilanz: die Menge an Niederschlag verteilt sich in die Mengen aus Wasserabfluss
    plus Wasserverdunstung plus Wasserspeicherung. Die einzelnen, zugrundeliegenden Vorgänge sind dabei aber ziemlich komplex. So ist es auch nicht verwunderlich, dass man als Laie schon mal den
    Erfahrungen eines Wünschelrutengängers vertraut. Dabei ist aber die klassische Vorstellung von Wasseradern im Boden nicht zutreffend, da das Wasser flächenhaft den Untergrund ausfüllt.
    
    Wissenschaftler nutzen deshalb zur Erkundung von Wasservorkommen und deren Veränderungen Bodenfeuchtesensoren, Grundwasserpegel und andere Instrumente, wie zum Beispiel ein sogenanntes Lysimeter.
    Dabei handelt es sich um eine Waage, die einen etwa 1,5 Kubikmeter und 3 Tonnen schweren Block aus Erdreich mit einer Auflösung von 10 Gramm kontinuierlich wiegt. Somit können kleinste
    Wassereinträge, aber auch die verdunstete Wassermenge registriert werden. Neben diesen punktuellen Aufzeichnungen kommt auch die Gravimetrie ins Spiel, die das von Isaac Newton erkannte
    Naturgesetz ausnutzt, dass jede Masse, also auch Wasser, eine Gravitationskraft ausübt. Ziel ist es, anhand der zeitlichen Änderungen in der örtlichen Erdschwere Erkenntnisse über
    Massenverhältnisse aufgrund zeitlicher Schwankungen der gespeicherten Wassermengen im Untergrund abzuleiten. Diese machen sich in der Erdbeschleunigung, die man in der Schule mit 9,81 Meter pro
    Sekunde im Quadrat lernt, an der siebten Stelle nach dem Komma bemerkbar.
    
    Zum Einsatz kommen hier unter anderem Satelliten, die aufgrund ihrer Bewegung um die Erde Gravitationsschwankungen unmittelbar spüren. Missionen, wie zum Beispiel die beiden GRACE-Satelliten, die
    in einem Abstand von 250 Kilometern in einer Höhe von 470 Kilometern um die Erde kreisen und permanent ihren Abstand zueinander bestimmen, lassen aus ihren Messungen auf Gravitationsschwankungen
    rückschließen. Sichtbar werden dabei globale Veränderungen, wie zum Beispiel der Gletscherrückgang in Grönland, Alaska und Patagonien, Dürreperioden in Australien und Südamerika, aber auch große
    Grundwasserentnahmen, wie zum Beispiel für die Bewässerung in Kalifornien, China, Pakistan und um den Euphrat und Tigris.
    
    Ergänzt werden diese Messungen lokal durch permanent installierte supraleitende Gravimeter. Sie messen anhand von supraleitenden Spulen und einer in ihren Magnetfeldern gefangenen Niob-Kugel
    feinste Veränderungen in der lokalen Erdanziehung. Da das Geodätische Observatorium Wettzell seit den 1980er Jahren supraleitende Gravimeter einsetzt, bot es seit einigen Jahren auch ideale
    Voraussetzungen für die Forschungsvorhaben des GFZ. Dabei stellten die Gravimeter ihre Leistungsfähigkeit für die Hydrologie unter Beweis und man konnte zum Beispiel messen, dass es in Wettzell
    nach dem Hitzesommer 2003 über vier Jahre dauerte, bis sich der Grundwasserspiegel wieder erholt hatte. Dabei wird deutlich, wie sensibel die Prozesse um unser lebensnotwendiges Trinkwasser sind.
Prof. Rudolf Metzka, 18. April 2013
    Was Noah hätte tun können, um sich vor der Sintflut zu schützen
    GIZ-Vortrag über modernen, integrierten Hochwasserschutz
    
    Eigentlich war es nur ein kleiner, aber umso heftigerer Regenschauer, der den sonst so friedlichen, idyllischen und völlig ungefährlichen Bachlauf in einen reißenden Fluss verwandelt hat. Wo
    sonst Fischer am ruhigen Gewässer stehen, war binnen kurzer Zeit landunter. Solche Szenarien spielen sich immer wieder ab. Jahrhunderthochwasser, wie zuletzt 2002 in vielen Teilen Deutschlands,
    sind selten, betreffen aber das öffentliche Leben erheblich und verursachen enorme Schäden. Moderne Konzepte, bei denen auch traditionelle Techniken und Landschaftsplanungen zum Tragen kommen,
    können hier Abhilfe schaffen. Zusammengefasst ergibt sich ein integrierter Hochwasserschutz. Darüber referierte am vergangenen Donnerstag Professor Rudolf Metzka von der Technischen Hochschule
    Deggendorf in seinem GIZ-Vortrag „Integrierter Hochwasserschutz mit Beispielen aus der Region“.
    
    Im wesentlichen ist integrierter Hochwasserschutz eine Schutzstrategie, die in drei Teilbereiche aufgeteilt wird: natürlicher Rückhalt als Vorbeugung, technischer Hochwasserschutz und
    weitergehende Hochwasservorsorge. Ausgangspunkt ist der Wasserkreislauf und die lokalen Witterungsverhältnisse. Hochwasser entsteht nämlich aus Oberflächenwasser, also aus Wasser, das nach einem
    Regen nicht versickern kann, nicht lokal gespeichert wird oder nicht verdunstet und damit oberirdisch zusammenfließt. Somit ist es beim Hochwasserschutz in erster Linie wichtig, das Einzugsgebiet
    der Gewässer und ihren Aufbau aus Flussläufen, Mündungen und Auen zu kennen.
    
    Eine Vergrößerung dieser natürlichen Zwischenspeicher schafft somit eine Verbesserung des Rückhaltevermögens. Ein wichtiger Faktor hierbei ist die schonende und optimierte Bewirtschaftung von
    landwirtschaftlichen Nutzflächen. Starke Verdichtungen, das Fehlen von Mulchsaaten, langhaltender Begrünung oder „Zwischenfruchten“ versiegeln die Böden und führen zu Oberflächenabflüssen.
    Gegenmaßnahmen sind unter anderem Umnutzungen sensibler Bereiche. An gegebener Stelle kann Wald zum Beispiel mehr Wasser speichern und rückhalten als landwirtschaftliche Nutzflächen. Kleinräumige
    Strukturen mit Ackerfurchen parallel zum Hang und zwischengelagerten Feldrainen verhindern weiter den Abfluss. Zur Schaffung von weiteren Puffern sind auch die Auen zu reaktivieren, Gewässer mit
    „Himmelsteichen“ oder naturähnlichen Mäanderstruktur zu renaturieren und Überflutungspolder als Rückhalteraum zu schaffen.
    
    Kommt es zum Hochwasser, greifen die technischen Hochwasserschutzmaßnahmen. Das sind technische Bauwerke entlang von Flüssen, wie zum Beispiel Deiche, Mauern, mobile Elemente, gegliederte
    Flussprofile, Flutmulden und künstliche Rückhaltebecken. Solche Maßnahmen findet man heutzutage in vielen Städten und Gemeinden. Letztendlich ist technischer Hochwasserschutz dabei immer eine
    Frage der Finanzmittel und der Integrierbarkeit in die örtlichen Gegebenheiten.
    
    Die Hochwasservorsorge zielt schließlich auf zukünftige Planungen ab und greift auf Erfahrungen, Fallanalysen und Computersimulationen zurück. Vorsorgliche Maßnahmen beinhalten das Freihalten von
    Überschwemmungsland oder die Förderung einer Bauleitplanung. Zudem sind Pfahlbauten oder geeignete Bauvorschriften in der Bauvorsorge zielführend. Die Verhaltensvorsorge bildet dann der
    Hochwassernachrichtendienst mit seinen Meldestufen, Warnsystemen und der Verhaltensführung von betroffenen Bürgern.
    
    Bei der Planung im Wasserbau fließen alle diese Teile ein, wenn Einzugsgebiete analysiert, Flussgebietsmodelle entwickelt, Landschaften kartiert, Strömungsmodelle berechnet, Schutzkonzepte
    erdacht und in ihrer Wirkung analysiert werden. Auf diese Art können die Risiken von Hochwassern verringert werden. Doch kein Konzept kann alle Gefahren generell beseitigen, und so wird man auch
    weiterhin von Zeit zu Zeit von Jahrhunderthochwassern hören oder lesen.
Hermann Gruber, 21. März 2013
    Waldwasser – der wertvolle Rohstoff aus der Region
    GIZ-Vortrag über Trinkwasser des Zweckverbands „Wasserversorgung Bayerischer Wald“
    
    Keine Verbindung von Elementen des chemischen Periodensystems ist für das Leben so wichtig, wie die aus zwei Wasserstoffatomen und einem Sauerstoffatom. Gemeinhin als Wasser bekannt, ist es der
    Ausgangspunkt allen uns bekannten Lebens. Zwei Drittel unseres Körpers bestehen daraus. Es ist einer der wichtigsten Rohstoffe der Industrie, deren Produkte auf den Wasserstraßen der Erde zudem
    weltweit transportiert werden. Für uns hier steht es jederzeit und in hoher Qualität zur Verfügung und fließt bei Bedarf einfach aus der Leitung. Trotzdem steckt ein erheblicher Aufwand hinter
    der Versorgung mit diesem „Grundnahrungsmittel“. Dem Thema „Wasser“ widmet sich die Vortragsreihe des Fördervereins Geodätisches Informationszentrum Wettzell e.V. zum internationalen Jahr des
    Wassers, die  Hermann Gruber vom Zweckverband Wasserversorgung Bayerischer Wald (WBW) mit seinem Vortrag "Waldwasser - Natürliches Leitungswasser aus der Region" am vergangenen Donnerstag
    einläutete.
    
    Der eher unkonventionell gehaltene Vortrag führte mit einem zwanzigminütigen Informationsfilm auf das Thema hin und ging unmittelbar in eine lebhafte Diskussionsrunde über, in der die Zuhörer
    direkt Fragen über ihr Wasser aus der Leitung stellen konnten. Dabei konzentrierte man sich gezielt auf den Bayerischen Wald und das Isarmündungsgebiet. Beide werden vom WBW betreut, gewinnen ihr
    Wasser aber aufgrund der geologischen Gegebenheiten über ganz unterschiedliche Verfahren. Ausgangspunkt ist der Wasserkreislauf: Regen aus den Wolken fällt auf den Boden, versickert, tritt wieder
    zu Tage, bildet Bäche, verdunstet und bildet wieder Wolken, die dann wieder abregnen.
    
    Auf diese Weise fallen so jährlich etwa 1500 Liter Regenwasser pro Quadratmeter auf das betreute Gebiet des WBW. Dieses versickert im Bayerischen Wald mit seinen Granit- und Gneisschichten durch
    Klüfte und tritt später in Form von zahlreichen Quellen wieder zu Tage. Dieses Oberflächenwasser muss in Talsperren aufgefangen werden, damit es als Trinkwasser genutzt werden kann. Im
    Isarmündungsgebiet speichern dagegen Kiesschichten das Wasser als Grundwasser. Dieses wird dann schonend aus bis zu 10 Metern Tiefe als sogenanntes Quartärwasser zu Tage befördert. Es ist durch
    kalkhaltige Schotter mit Mineralien angereichert und damit verglichen mit dem in einer Trinkwassertalsperre gesammelten Quellwasser aus dem Bayerischen Wald wesentlich härter.
    
    Somit bilden sich zwei Versorgungszonen aus. Für unser Gebiet wird das Wasser aus der Trinkwassertalsperre Frauenau entnommen. Sieben Jahre hatte der Bau in den späten 1970er Jahren gedauert. Sie
    versorgt aktuell sechs Landkreise, darunter 80 Städte und Gemeinden, und damit eine Fläche von 5000 Quadratkilometern mit qualitativ hochwertigem Trinkwasser. Zusammen mit den eigenen
    Gemeindebrunnen ist die Wasserversorgung damit auch in Trockenperioden über mindestens zwei Jahre hinweg gesichert, auch wenn aktuell 500 Liter pro Sekunde aus dem See entnommen werden. Das
    entnommene Wasser wird gefiltert und „aufgehärtet“ und unterliegt jährlich 8000 Kontrollen, um seine Qualität zu sichern. Pumpwerke, wie zum Beispiel in Flanitz oder Hochbehälter verteilen das
    wertvolle Nass dann an die Gemeinden, die die Vergabe an die Endverbraucher regeln. Da die Trinkwassertalsperre auf rund 700 m Höhe liegt, reicht in der Regel das natürliche Gefälle für den
    Transport zum Verbraucher. Dabei läuft es sogar über Generatoren und sorgt für eine Energierückgewinnung zu elektrischem Strom. Der Verbraucher bekommt damit nicht nur Leitungswasser, welches als
    eingetragene Marke „Waldwasser“ zur Verfügung steht, seine Qualität wird auch mittels Schutzzonen im Einzugsgebiet garantiert. Zudem ist es im Vergleich mit den Mineralwässern aus dem Supermarkt
    bei mindestens gleicher Qualität extrem viel günstiger, und das ohne Schleppen von Kisten einfach aus dem Wasserhahn.
Prof. Ulrich Schreiber, 21. Februar 2013
    Wenn die vergehende Zeit exakt gemessen werden kann
    GIZ-Vortrag über optischen Uhren und deren Genauigkeit
    
    Unser tägliches Leben ist bestimmt von Uhren und deren Zeit. Zu Hause durch die Pendeluhr, am Handgelenk durch die Quarzuhr oder am Bahnhof mittels einer Funkuhr geben Uhren uns den Takt vor.
    Alle Uhren haben dabei ein ähnliches Funktionsprinzip: ein Generator erzeugt eine Schwingung, die zu festen Zeitpunkten eine Zuordnung einer Zeitmarke erlaubt und dabei eine Anzeige
    weiterschaltet. Ob mechanische Uhr, Quarzuhr, Cäsium-Atomuhr oder die neuesten optischen Uhren, sie alle folgen diesem Aufbau, auch wenn sie in der Umsetzung andere Techniken einsetzen.
    Allerdings sind heutige optische Uhren eine Billiarde Mal genauer als jede herkömmliche Pendeluhr. Dadurch erlauben sie nicht nur eine genaue Zeitbestimmung, sie bieten auch viel Spielraum für
    wissenschaftliche Fragestellungen. Darüber referierte am vergangenen Donnerstag Prof. Dr. Ulrich Schreiber von der Technischen Universität München in seinem Vortrag des Fördervereins Geodätisches
    Informationszentrum Wettzell e.V. mit dem Titel „Gekämmtes Licht – Wie Atomuhren genauer werden“, der wieder zahlreiche Zuhörer ins Geodätische Observatorium Wettzell führte.
    
    Prof. Schreiber, der in seiner neuen Aufgabe im Projekt „Atomic Clocks Ensemble in Space (ACES)“ als wissenschaftlicher Leiter für die Zeitübertragung zur Internationalen Raumstation ISS
    verantwortlich zeichnet, führte langsam in die Tiefen der Physik hinter der Zeitmessung mit Atomuhren ein. Dabei ist Zeit nicht nur in unserem Alltag essentiell. Auch geodätische Messverfahren
    ermitteln Distanzen mittels der Messung der Laufzeiten von Licht, wie zum Beispiel bei der Laserentfernungsmessung. Dies ist möglich, da Zeit die physikalisch am genauesten bestimmbare Einheit
    darstellt. Während die ersten Uhren im 14. Jahrhundert noch täglich um über eine viertel Stunde falsch gingen, liefern aktuellen Atomuhren eine Gangungenauigkeit von einer Sekunde in einer
    Million Jahren. Zudem kann Zeit heute per Funk übertragen werden, wie zum Beispiel für alle Funkuhren in Deutschland in Form des DCF77-Signals aus Mainflingen. Zeit ist somit überall
    verfügbar.
    
    Doch diese Übertragung hat ihre Tücken. Da sich die Funkwellen mit Lichtgeschwindigkeit ausbreiten, benötigen die Signale selbst Zeit, bis sie beim Empfänger ankommen. Deshalb erreicht man über
    Funk nur eine Genauigkeit von einer tausendstel Sekunde in einem Umkreis von etwa 300 Kilometern um den Sender.  Mit der erreichbaren, extremen Genauigkeit von Atomuhren, wie sie unter
    anderem am Observatorium Wettzell verwendet werden, schrumpft diese Zone auf 30 Zentimeter im Umkreis des Senders zusammen. Diese Strecke ist kleiner als die Atomuhr selbst, so dass es extrem
    schwierig wird, den genauen Ort eines Uhrenstands zu bestimmen. Jedoch lassen sich Zeitintervalle, also die Zeitdifferenz zwischen zwei Zeitsignalen, einfach und fast beliebig genau
    bestimmen.
    
    Weitere Einflussfaktoren ergeben sich aus der Relativitätstheorie. Aufgrund der Zeitdilatation (Zeitdehnung) läuft nämlich eine bewegte Uhr langsamer als eine ruhende Uhr. Dies konnte 1972
    eindrucksvoll in einem Versuch nachgewiesen werden, in dem Atomuhren von Washington aus in einem Flugzeug zu einer Reise um die gesamte Erde starteten und anschließend wieder mit einer Referenz
    auf dem Boden verglichen wurden. Tatsächlich ergab sich der errechnete Zeitversatz. Auch geht eine Uhr an einem höheren Ort schneller als an einem tiefer gelegenen, was sich aus der Allgemeinen
    Relativitätstheorie ergibt. Aktuell bedeutet dies, dass die Cäsium-Atomuhren in Wettzell einen Höhenunterschied von etwa 100 Metern auf diese Weise messen könnten.
    
    Die genauesten Ergebnisse liefern heutzutage aber optische Uhren. Darin wird ein in der Frequenz abstimmbarer Laser auf ein in den elektischen Feldern einer Paul-Falle gefangenes, geladenes
    Referenzatom eingestrahlt, das mittels Laserkühlung zum Bewegungsstillstand gebracht wurde. Die Einstrahlung des Laserlichts fragt dabei den Energiezustand des Ions ab und detektiert so die
    Frequenz des passenden „Uhrenübergangs“. Danach erfolgt eine Frequenzumsetzung vom optischen in den elektrischen Bereich, da ein zeitlicher Puls mittels zahlreicher, geeignet überlagerter
    Sinuswellen erzeugt werden kann. Diese bilden ein breites „Gitterwerk“, den „Frequenzkamm“, dessen Aufbau nur vom Abstand zwischen den Frequenzen und einer Verschiebung zum Nullpunkt bestimmt
    wird. Für diese Erkenntnis gab es 2005 sogar einen Nobelpreis. Im Bereich der Geodäsie wird sie genutzt, um zwei Uhren über Glasfaser und mittels einer Zweiwegemessung der Laufzeiten zwischen den
    Uhren starr miteinander zu koppeln und damit hochpräzise Zeitübertragung über hunderte Kilometer hinweg zu betreiben.