Vorträge 2013


Peter Geffert, 29. November 2013

Kometen - Vagabunden im Sonnensystem

Totgeweihte leben länger
Neues vom „Adventsstern“ ISON im GIZ-Vortrag zu Kometen

Etwas fälschlich wurde er in den letzten Wochen in den Medien als „Weihnachtsstern“ oder „Adventsstern“ angekündigt. Er, der Komet ISON oder genauer C/2012 S1 ISON, ist ein Besucher aus der  Oorthschen Wolke  und hat damit bis heute eine Distanz von etwa 1,6 Lichtjahren hinter sich gebracht. Seit einiger Zeit konnte man ihn am frühen Morgenhimmel mit den kometentypischen Gas- und Staubschweifen erblicken. Am vergangenen Donnerstag vollführte er schließlich ein einmaliges Schauspiel: er kam bei seinem Periheldurchgang der Sonne mit einem Abstand von 1,17 Millionen Kilometern  näher als ihr Durchmesser misst. Üblicherweise bedeutet dies, dass der Himmelskörper zum Untergang verurteilt ist, weil er nur aus Trockeneis, Wassereis und Staub besteht. Doch ISON überraschte die Forscher. Davon berichtete am vergangenen Freitag Peter Geffert von der Starkenburg Sternwarte e.V. Heppenheim in seinem Vortrag „Kometen – Vagabunden des Sonnensystems: ISON, PANSTARRS, Hale-Bopp und ihre Kollegen“ im gut besuchten Sitzungssaal des Geodätischen Observatoriums Wettzell.

Dabei wurde ISON erst am 21. September 2012 von einem russischen, astronomischen Suchprogramm mit Namen „International Scientific Optical Network“ entdeckt. Etwa 30 Teleskope an 20 verschiedenen Standorten suchen und verfolgen darin permanent verschiedene Objekte im All, unter anderem Kometen. Weil neue Himmelskörper von ihren Entdeckern benannt werden dürfen, erklärt sich so auch der Name des Kometen ISON aus den Kürzeln des Suchprogramms. Seit seiner Entdeckung war damit seine Bahn gut bekannt, die am vergangenen Donnerstag um ca. 20 Uhr unserer Zeit zu dem spektakulären Schauspiel führte. Dieses wurde unter anderem von den Sonnenbeobachtungssatelliten Lasco C2 und Lasco C3 des Solar and Heliospheric Observatory (SOHO) verfolgt und lieferte interessante Bilder, die Astronomen weltweit zum rätseln, schwärmen und diskutieren brachten. Dabei zeigte sich, anders als erwartet, dass wahrscheinlich Teile des Kometen überlebt haben. Davon, ob dies wirklich so ist, kann sich dann jeder selbst überzeugen, wenn der Himmelskörper ab dem 5. Dezember am Morgen, ab dem 15.12. auch am Abendhimmel und ab etwa Weihnachten fast die ganze Nacht sichtbar sein wird.

Während Kometen heutzutage die Menschen faszinieren, galten sie lange Zeit als Unglücksboten. Oft vermischt sich aber auch heute noch die Angst, dass so ein Himmelskörper wie am 15. Februar dieses Jahres im russischen Tscheljabinsk, auf die Erde stürzen könnte. Dabei ist die Gefahr sehr geringen. Kometen bestehen anders als Meteoriden nicht aus Gestein, sondern sind mehr oder weniger große „schmutzige Schneebälle“ auf einer sehr stark elliptischen Bahn quer durch das Sonnensystem. Auf ihrem Weg unterliegen sie zahlreichen Kräften unter anderem von den Himmelskörpern, die ihre Bahnen beeinflussen. Speziell die großen, äußeren Planeten des Sonnensystems können dabei die Umlaufzeiten der Kometen stark verändern. Kommt ein Komet schließlich der Sonne näher als die Marsbahn, bildet sich um ihn ein Kometenkoma, ein Gas- und ein Staubschweif. Verursacht durch den Strahlungsdruck und den Sonnenwind richtet sich der Gasschweif immer von der Sonne weg, während der Staubschweif die überstrichene Bahn mit abgestoßenen Staubpartikeln übersät. Durchdringt die Erde solche Bahnen, kommt es zu häufigen Sternschnuppen, wie zum Beispiel bei den Perseidenschauern jedes Jahr.

Nicht nur deshalb sind Kometen faszinierende Himmelskörper, die einer genaueren Erforschung bedürfen. Zu diesem Zweck wird sich im Mai 2014 ein weiteres Ereignis anbahnen. Die Sonde Rosetta soll sich dann nämlich nach ihrem zehnjährigen Flug dem Kometen Tschurjumow-Gerasimenko annähern und ihn ein Stück begleiten, so dass im November sogar die Landungssonde Philea auf dem „Eisball“ lande kann. Es bleibt also spannend.

Download
Werbeplakat
GIZ_Kometen_A3.pdf
Adobe Acrobat Dokument 651.1 KB

Karl Spanowsky, 20. Juni 2013

Wie sauber ist unser Wasser? Umweltschutz in der Wasserwirtschaft

Bewahrer der lebenswichtigen Wasserqualität
GIZ-Vortrag über die Qualität in unseren Gewässern und deren Erhalt

Nach den ganzen Hochwasserkatastrophen der vergangenen Wochen, in denen örtlich teilweise in ein paar Tagen so viel Regen viel, wie sonst in einem ganzen Jahr, kann man es kaum glauben, dass Wasser wertvoll und teilweise Mangelware ist. Speziell sauberes Wasser wird nicht nur als Trinkwasser benötigt, es ist auch die Grundlage jedes Lebens in der Natur. Die heutige Wasserversorgung stellt zumindest in Deutschland genügend Frischwasser zur Verfügung. Doch der Verbrauch dieses Wassers hinterlässt Mengen von Abwasser mit allen möglichen Verunreinigungen. Eine Stadt mit zwanzig- bis dreißigtausend Einwohnern produziert zum Beispiel pro Sekunde 10 Liter Abwasser. Früher lief dieses einfach in die Flüsse und Bäche und führte dort zu ungeahnten Veränderungen. Moderne Kläranlagen helfen heutzutage sehr effektiv, die meisten Verunreinigungen herauszuholen. Was dabei alles im Wasser zu finden ist und welchen Aufwand die Reinigung und die Kontrolle der Wasserqualität bedarf, zeigte am vergangenen Donnerstag Karl Spankowsky vom Wasserwirtschaftsamt Donauwörth in seinem GIZ-Vortrag "Wie sauber ist unser Wasser? Umweltschutz in der Wasserwirtschaft". Dieser schloss die Vortragsreihe zum Jahr des Wassers ab.

Die Klärung läuft dabei über verschiedene Stufen, wie der Laborleiter des Wasserwirtschaftsamtes zu berichten wusste. Erst wird in einem  Rechenhaus der gröbere Schmutz entfernt. Nach dem Sandabfang und Fettabscheider fließt das so vorgereinigte Wasser in ein Belebungsbecken, in dem Bakterien unter Zugabe von Sauerstoff die organischen Bestandteile abbauen. Nach dem Nachklärbecken kann das gereinigte Wasser in die Flüsse rückgeführt werden.

Diese Wasserreinigung ist zum Schutz der Umwelt sehr wichtig. Das Faulen von organischen Stoffen, wie Kohlehydrate, Fette und Eiweiße, kann nämlich zu Sauerstoffmangel in Gewässern und damit zu großem Fischsterben führen. Dies ist auch eine Gefahr bei den heutigen Biogasanlagen, wenn sie nicht genügend vor Überlauf geschützt sind. Dort wird gerade der Faulungsprozess zur Energiegewinnung eingesetzt. Schon bei relativ kleinen Anlagen können die bei der Eiweißzersetzung entstehenden Ammoniumverbindungen bei Einleitung in Gewässer einen Fluss über 20 bis 30 Kilometer absterben lassen. Ausschlaggebend ist ein sensibles Gleichgewicht zwischen Ammoniakgas und Ammonium, das je nach Temperatur unterschiedlich ist und so je nach Jahreszeit unterschiedliche Schäden in der Natur hinterlässt, wie zum Beispiel flächendeckendes Fischsterben im Sommer.

Zudem Filtern Kläranlagen Phosphor-Verbindungen aus dem Abwasser. Diese sind in Waschmitteln und in Düngern. Phosphor fördert unter anderem das Blaualgenwachstum. Auch wenn Gülle ein idealer Dünger ist, beinhaltet es 100000 Mal mehr Phosphor als Frischwasser in einem Baggersee und immerhin noch etwa 1000 Mal mehr als gut gereinigtes Abwasser. Somit ist es wichtig, dass nur gezielte Mengen auf den Wiesen eingesetzt werden, so dass kein unbeabsichtigter Ablauf in die Gewässer stattfinden kann.

Die wohl größten Gefahren gehen aber von den Spurenelementen aus, die schlecht abbaubar, giftig, hormonverändernd, erbgutschädigend oder krebserregend sein können. Dazu gehören Zinnorganische Verbindungen aus Bootslacken, PCB aus Kondensatoren, DEHP aus Kunststoffen, Glyphosphat aus Pflanzenschutzmitteln, Perfluorierte Tenside aus Imprägniersprays, natürliche Uranauswaschungen von landwirtschaftlichen Nutzflächen, Quecksilber oder andere Schwermetalle aus der Industrie, Medikamente oder auch Chlorphenol in Toilettensteinen und Korrosionsschutzmittel aus den Tabletten für Geschirrspülern. Es handelt sich zwar nur um kleine Einzelmengen, die aber in der Summe langlebig große Wirkungen entfalten. So stellt sich am Ende die Frage, ob man als Konsument wirklich alle diese Produkte benötigt, wenn es auch ökologischere Ersatzstoffe gibt, die unsere lebenswichtige Wasserqualität bewahren.

Download
Werbeplakat
GIZ_Wasserchemie_A3.pdf
Adobe Acrobat Dokument 336.6 KB

Dr. Andreas Güntner, 16. Mai 2013

Neue Verfahren zur Erfassung unterirdischer Wasserressourcen

Was die Erdanziehung über das Grundwasser verrät
GIZ-Vortrag über den Einsatz der Gravimetrie zur Erkundung von Wasserspeichern

Über siebzig Prozent der Erde sind mit Wasser bedeckt. Doch volumenmäßig macht Wasser nur einen geringen Teil aus. Hätte die Erde die Größe eines Basketballs, würde das gesamte Wasser der Erde nur das Volumen eines Tischtennisballs füllen. Davon wäre wieder der größte Teil Salzwasser. Nur etwa ein Stecknadelkopf wäre im vorigen Vergleich mit Trinkwasser gefüllt. Da aber gerade dieses für Pflanzen, Tiere und Menschen von entscheidender Bedeutung ist, ist die Suche nach Trinkwasserspeichern und die Erforschung zugrundeliegender Einflüsse und Kreisläufe besonders wichtig. Dazu werden heute neben klassischen, hydrologischen Methoden auch Instrumente genutzt, welche die Erdschwere und deren Veränderungen an einem Ort präzise messen können. Über den Einsatz dieser Gravimeter bei der Erforschung von unterirdischen Wasserveränderungen berichtete am vergangenen Donnerstag Dr. Andreas Güntner vom Deutschen GeoForschungsZentrum (GFZ) Potsdam in seinem GIZ-Vortrag „Neue Verfahren zur Erfassung unterirdischer Wasserressourcen“.

Hintergrund der Untersuchung von unterirdischen Wasserspeichern ist eine einfache Formel für die kontinentale Wasserbilanz: die Menge an Niederschlag verteilt sich in die Mengen aus Wasserabfluss plus Wasserverdunstung plus Wasserspeicherung. Die einzelnen, zugrundeliegenden Vorgänge sind dabei aber ziemlich komplex. So ist es auch nicht verwunderlich, dass man als Laie schon mal den Erfahrungen eines Wünschelrutengängers vertraut. Dabei ist aber die klassische Vorstellung von Wasseradern im Boden nicht zutreffend, da das Wasser flächenhaft den Untergrund ausfüllt.

Wissenschaftler nutzen deshalb zur Erkundung von Wasservorkommen und deren Veränderungen Bodenfeuchtesensoren, Grundwasserpegel und andere Instrumente, wie zum Beispiel ein sogenanntes Lysimeter. Dabei handelt es sich um eine Waage, die einen etwa 1,5 Kubikmeter und 3 Tonnen schweren Block aus Erdreich mit einer Auflösung von 10 Gramm kontinuierlich wiegt. Somit können kleinste Wassereinträge, aber auch die verdunstete Wassermenge registriert werden. Neben diesen punktuellen Aufzeichnungen kommt auch die Gravimetrie ins Spiel, die das von Isaac Newton erkannte Naturgesetz ausnutzt, dass jede Masse, also auch Wasser, eine Gravitationskraft ausübt. Ziel ist es, anhand der zeitlichen Änderungen in der örtlichen Erdschwere Erkenntnisse über Massenverhältnisse aufgrund zeitlicher Schwankungen der gespeicherten Wassermengen im Untergrund abzuleiten. Diese machen sich in der Erdbeschleunigung, die man in der Schule mit 9,81 Meter pro Sekunde im Quadrat lernt, an der siebten Stelle nach dem Komma bemerkbar.

Zum Einsatz kommen hier unter anderem Satelliten, die aufgrund ihrer Bewegung um die Erde Gravitationsschwankungen unmittelbar spüren. Missionen, wie zum Beispiel die beiden GRACE-Satelliten, die in einem Abstand von 250 Kilometern in einer Höhe von 470 Kilometern um die Erde kreisen und permanent ihren Abstand zueinander bestimmen, lassen aus ihren Messungen auf Gravitationsschwankungen rückschließen. Sichtbar werden dabei globale Veränderungen, wie zum Beispiel der Gletscherrückgang in Grönland, Alaska und Patagonien, Dürreperioden in Australien und Südamerika, aber auch große Grundwasserentnahmen, wie zum Beispiel für die Bewässerung in Kalifornien, China, Pakistan und um den Euphrat und Tigris.

Ergänzt werden diese Messungen lokal durch permanent installierte supraleitende Gravimeter. Sie messen anhand von supraleitenden Spulen und einer in ihren Magnetfeldern gefangenen Niob-Kugel feinste Veränderungen in der lokalen Erdanziehung. Da das Geodätische Observatorium Wettzell seit den 1980er Jahren supraleitende Gravimeter einsetzt, bot es seit einigen Jahren auch ideale Voraussetzungen für die Forschungsvorhaben des GFZ. Dabei stellten die Gravimeter ihre Leistungsfähigkeit für die Hydrologie unter Beweis und man konnte zum Beispiel messen, dass es in Wettzell nach dem Hitzesommer 2003 über vier Jahre dauerte, bis sich der Grundwasserspiegel wieder erholt hatte. Dabei wird deutlich, wie sensibel die Prozesse um unser lebensnotwendiges Trinkwasser sind.

Download
Werbeplakat
GIZ_Grundwasser_A3.pdf
Adobe Acrobat Dokument 745.0 KB

Prof. Rudolf Metzka, 18. April 2013

Integrierter Hochwasserschutz mit Beispielen aus der Region

Was Noah hätte tun können, um sich vor der Sintflut zu schützen
GIZ-Vortrag über modernen, integrierten Hochwasserschutz

Eigentlich war es nur ein kleiner, aber umso heftigerer Regenschauer, der den sonst so friedlichen, idyllischen und völlig ungefährlichen Bachlauf in einen reißenden Fluss verwandelt hat. Wo sonst Fischer am ruhigen Gewässer stehen, war binnen kurzer Zeit landunter. Solche Szenarien spielen sich immer wieder ab. Jahrhunderthochwasser, wie zuletzt 2002 in vielen Teilen Deutschlands, sind selten, betreffen aber das öffentliche Leben erheblich und verursachen enorme Schäden. Moderne Konzepte, bei denen auch traditionelle Techniken und Landschaftsplanungen zum Tragen kommen, können hier Abhilfe schaffen. Zusammengefasst ergibt sich ein integrierter Hochwasserschutz. Darüber referierte am vergangenen Donnerstag Professor Rudolf Metzka von der Technischen Hochschule Deggendorf in seinem GIZ-Vortrag „Integrierter Hochwasserschutz mit Beispielen aus der Region“.

Im wesentlichen ist integrierter Hochwasserschutz eine Schutzstrategie, die in drei Teilbereiche aufgeteilt wird: natürlicher Rückhalt als Vorbeugung, technischer Hochwasserschutz und weitergehende Hochwasservorsorge. Ausgangspunkt ist der Wasserkreislauf und die lokalen Witterungsverhältnisse. Hochwasser entsteht nämlich aus Oberflächenwasser, also aus Wasser, das nach einem Regen nicht versickern kann, nicht lokal gespeichert wird oder nicht verdunstet und damit oberirdisch zusammenfließt. Somit ist es beim Hochwasserschutz in erster Linie wichtig, das Einzugsgebiet der Gewässer und ihren Aufbau aus Flussläufen, Mündungen und Auen zu kennen.

Eine Vergrößerung dieser natürlichen Zwischenspeicher schafft somit eine Verbesserung des Rückhaltevermögens. Ein wichtiger Faktor hierbei ist die schonende und optimierte Bewirtschaftung von landwirtschaftlichen Nutzflächen. Starke Verdichtungen, das Fehlen von Mulchsaaten, langhaltender Begrünung oder „Zwischenfruchten“ versiegeln die Böden und führen zu Oberflächenabflüssen. Gegenmaßnahmen sind unter anderem Umnutzungen sensibler Bereiche. An gegebener Stelle kann Wald zum Beispiel mehr Wasser speichern und rückhalten als landwirtschaftliche Nutzflächen. Kleinräumige Strukturen mit Ackerfurchen parallel zum Hang und zwischengelagerten Feldrainen verhindern weiter den Abfluss. Zur Schaffung von weiteren Puffern sind auch die Auen zu reaktivieren, Gewässer mit „Himmelsteichen“ oder naturähnlichen Mäanderstruktur zu renaturieren und Überflutungspolder als Rückhalteraum zu schaffen.

Kommt es zum Hochwasser, greifen die technischen Hochwasserschutzmaßnahmen. Das sind technische Bauwerke entlang von Flüssen, wie zum Beispiel Deiche, Mauern, mobile Elemente, gegliederte Flussprofile, Flutmulden und künstliche Rückhaltebecken. Solche Maßnahmen findet man heutzutage in vielen Städten und Gemeinden. Letztendlich ist technischer Hochwasserschutz dabei immer eine Frage der Finanzmittel und der Integrierbarkeit in die örtlichen Gegebenheiten.

Die Hochwasservorsorge zielt schließlich auf zukünftige Planungen ab und greift auf Erfahrungen, Fallanalysen und Computersimulationen zurück. Vorsorgliche Maßnahmen beinhalten das Freihalten von Überschwemmungsland oder die Förderung einer Bauleitplanung. Zudem sind Pfahlbauten oder geeignete Bauvorschriften in der Bauvorsorge zielführend. Die Verhaltensvorsorge bildet dann der Hochwassernachrichtendienst mit seinen Meldestufen, Warnsystemen und der Verhaltensführung von betroffenen Bürgern.

Bei der Planung im Wasserbau fließen alle diese Teile ein, wenn Einzugsgebiete analysiert, Flussgebietsmodelle entwickelt, Landschaften kartiert, Strömungsmodelle berechnet, Schutzkonzepte erdacht und in ihrer Wirkung analysiert werden. Auf diese Art können die Risiken von Hochwassern verringert werden. Doch kein Konzept kann alle Gefahren generell beseitigen, und so wird man auch weiterhin von Zeit zu Zeit von Jahrhunderthochwassern hören oder lesen.

Download
Werbeplakat
GIZ_Hochwasserschutz_A3.pdf
Adobe Acrobat Dokument 123.6 KB

Hermann Gruber, 21. März 2013

Waldwasser – Natürliches Leitungswasser aus der Region

Waldwasser – der wertvolle Rohstoff aus der Region
GIZ-Vortrag über Trinkwasser des Zweckverbands „Wasserversorgung Bayerischer Wald“

Keine Verbindung von Elementen des chemischen Periodensystems ist für das Leben so wichtig, wie die aus zwei Wasserstoffatomen und einem Sauerstoffatom. Gemeinhin als Wasser bekannt, ist es der Ausgangspunkt allen uns bekannten Lebens. Zwei Drittel unseres Körpers bestehen daraus. Es ist einer der wichtigsten Rohstoffe der Industrie, deren Produkte auf den Wasserstraßen der Erde zudem weltweit transportiert werden. Für uns hier steht es jederzeit und in hoher Qualität zur Verfügung und fließt bei Bedarf einfach aus der Leitung. Trotzdem steckt ein erheblicher Aufwand hinter der Versorgung mit diesem „Grundnahrungsmittel“. Dem Thema „Wasser“ widmet sich die Vortragsreihe des Fördervereins Geodätisches Informationszentrum Wettzell e.V. zum internationalen Jahr des Wassers, die  Hermann Gruber vom Zweckverband Wasserversorgung Bayerischer Wald (WBW) mit seinem Vortrag "Waldwasser - Natürliches Leitungswasser aus der Region" am vergangenen Donnerstag einläutete.

Der eher unkonventionell gehaltene Vortrag führte mit einem zwanzigminütigen Informationsfilm auf das Thema hin und ging unmittelbar in eine lebhafte Diskussionsrunde über, in der die Zuhörer direkt Fragen über ihr Wasser aus der Leitung stellen konnten. Dabei konzentrierte man sich gezielt auf den Bayerischen Wald und das Isarmündungsgebiet. Beide werden vom WBW betreut, gewinnen ihr Wasser aber aufgrund der geologischen Gegebenheiten über ganz unterschiedliche Verfahren. Ausgangspunkt ist der Wasserkreislauf: Regen aus den Wolken fällt auf den Boden, versickert, tritt wieder zu Tage, bildet Bäche, verdunstet und bildet wieder Wolken, die dann wieder abregnen.

Auf diese Weise fallen so jährlich etwa 1500 Liter Regenwasser pro Quadratmeter auf das betreute Gebiet des WBW. Dieses versickert im Bayerischen Wald mit seinen Granit- und Gneisschichten durch Klüfte und tritt später in Form von zahlreichen Quellen wieder zu Tage. Dieses Oberflächenwasser muss in Talsperren aufgefangen werden, damit es als Trinkwasser genutzt werden kann. Im Isarmündungsgebiet speichern dagegen Kiesschichten das Wasser als Grundwasser. Dieses wird dann schonend aus bis zu 10 Metern Tiefe als sogenanntes Quartärwasser zu Tage befördert. Es ist durch kalkhaltige Schotter mit Mineralien angereichert und damit verglichen mit dem in einer Trinkwassertalsperre gesammelten Quellwasser aus dem Bayerischen Wald wesentlich härter.

Somit bilden sich zwei Versorgungszonen aus. Für unser Gebiet wird das Wasser aus der Trinkwassertalsperre Frauenau entnommen. Sieben Jahre hatte der Bau in den späten 1970er Jahren gedauert. Sie versorgt aktuell sechs Landkreise, darunter 80 Städte und Gemeinden, und damit eine Fläche von 5000 Quadratkilometern mit qualitativ hochwertigem Trinkwasser. Zusammen mit den eigenen Gemeindebrunnen ist die Wasserversorgung damit auch in Trockenperioden über mindestens zwei Jahre hinweg gesichert, auch wenn aktuell 500 Liter pro Sekunde aus dem See entnommen werden. Das entnommene Wasser wird gefiltert und „aufgehärtet“ und unterliegt jährlich 8000 Kontrollen, um seine Qualität zu sichern. Pumpwerke, wie zum Beispiel in Flanitz oder Hochbehälter verteilen das wertvolle Nass dann an die Gemeinden, die die Vergabe an die Endverbraucher regeln. Da die Trinkwassertalsperre auf rund 700 m Höhe liegt, reicht in der Regel das natürliche Gefälle für den Transport zum Verbraucher. Dabei läuft es sogar über Generatoren und sorgt für eine Energierückgewinnung zu elektrischem Strom. Der Verbraucher bekommt damit nicht nur Leitungswasser, welches als eingetragene Marke „Waldwasser“ zur Verfügung steht, seine Qualität wird auch mittels Schutzzonen im Einzugsgebiet garantiert. Zudem ist es im Vergleich mit den Mineralwässern aus dem Supermarkt bei mindestens gleicher Qualität extrem viel günstiger, und das ohne Schleppen von Kisten einfach aus dem Wasserhahn.

Download
Werbeplakat
GIZ_Waldwasser_A3.pdf
Adobe Acrobat Dokument 388.3 KB

Prof. Ulrich Schreiber, 21. Februar 2013

Gekämmtes Licht – wie Atomuhren genauer werden

Wenn die vergehende Zeit exakt gemessen werden kann
GIZ-Vortrag über optischen Uhren und deren Genauigkeit

Unser tägliches Leben ist bestimmt von Uhren und deren Zeit. Zu Hause durch die Pendeluhr, am Handgelenk durch die Quarzuhr oder am Bahnhof mittels einer Funkuhr geben Uhren uns den Takt vor. Alle Uhren haben dabei ein ähnliches Funktionsprinzip: ein Generator erzeugt eine Schwingung, die zu festen Zeitpunkten eine Zuordnung einer Zeitmarke erlaubt und dabei eine Anzeige weiterschaltet. Ob mechanische Uhr, Quarzuhr, Cäsium-Atomuhr oder die neuesten optischen Uhren, sie alle folgen diesem Aufbau, auch wenn sie in der Umsetzung andere Techniken einsetzen. Allerdings sind heutige optische Uhren eine Billiarde Mal genauer als jede herkömmliche Pendeluhr. Dadurch erlauben sie nicht nur eine genaue Zeitbestimmung, sie bieten auch viel Spielraum für wissenschaftliche Fragestellungen. Darüber referierte am vergangenen Donnerstag Prof. Dr. Ulrich Schreiber von der Technischen Universität München in seinem Vortrag des Fördervereins Geodätisches Informationszentrum Wettzell e.V. mit dem Titel „Gekämmtes Licht – Wie Atomuhren genauer werden“, der wieder zahlreiche Zuhörer ins Geodätische Observatorium Wettzell führte.

Prof. Schreiber, der in seiner neuen Aufgabe im Projekt „Atomic Clocks Ensemble in Space (ACES)“ als wissenschaftlicher Leiter für die Zeitübertragung zur Internationalen Raumstation ISS verantwortlich zeichnet, führte langsam in die Tiefen der Physik hinter der Zeitmessung mit Atomuhren ein. Dabei ist Zeit nicht nur in unserem Alltag essentiell. Auch geodätische Messverfahren ermitteln Distanzen mittels der Messung der Laufzeiten von Licht, wie zum Beispiel bei der Laserentfernungsmessung. Dies ist möglich, da Zeit die physikalisch am genauesten bestimmbare Einheit darstellt. Während die ersten Uhren im 14. Jahrhundert noch täglich um über eine viertel Stunde falsch gingen, liefern aktuellen Atomuhren eine Gangungenauigkeit von einer Sekunde in einer Million Jahren. Zudem kann Zeit heute per Funk übertragen werden, wie zum Beispiel für alle Funkuhren in Deutschland in Form des DCF77-Signals aus Mainflingen. Zeit ist somit überall verfügbar.

Doch diese Übertragung hat ihre Tücken. Da sich die Funkwellen mit Lichtgeschwindigkeit ausbreiten, benötigen die Signale selbst Zeit, bis sie beim Empfänger ankommen. Deshalb erreicht man über Funk nur eine Genauigkeit von einer tausendstel Sekunde in einem Umkreis von etwa 300 Kilometern um den Sender.  Mit der erreichbaren, extremen Genauigkeit von Atomuhren, wie sie unter anderem am Observatorium Wettzell verwendet werden, schrumpft diese Zone auf 30 Zentimeter im Umkreis des Senders zusammen. Diese Strecke ist kleiner als die Atomuhr selbst, so dass es extrem schwierig wird, den genauen Ort eines Uhrenstands zu bestimmen. Jedoch lassen sich Zeitintervalle, also die Zeitdifferenz zwischen zwei Zeitsignalen, einfach und fast beliebig genau bestimmen.

Weitere Einflussfaktoren ergeben sich aus der Relativitätstheorie. Aufgrund der Zeitdilatation (Zeitdehnung) läuft nämlich eine bewegte Uhr langsamer als eine ruhende Uhr. Dies konnte 1972 eindrucksvoll in einem Versuch nachgewiesen werden, in dem Atomuhren von Washington aus in einem Flugzeug zu einer Reise um die gesamte Erde starteten und anschließend wieder mit einer Referenz auf dem Boden verglichen wurden. Tatsächlich ergab sich der errechnete Zeitversatz. Auch geht eine Uhr an einem höheren Ort schneller als an einem tiefer gelegenen, was sich aus der Allgemeinen Relativitätstheorie ergibt. Aktuell bedeutet dies, dass die Cäsium-Atomuhren in Wettzell einen Höhenunterschied von etwa 100 Metern auf diese Weise messen könnten.

Die genauesten Ergebnisse liefern heutzutage aber optische Uhren. Darin wird ein in der Frequenz abstimmbarer Laser auf ein in den elektischen Feldern einer Paul-Falle gefangenes, geladenes Referenzatom eingestrahlt, das mittels Laserkühlung zum Bewegungsstillstand gebracht wurde. Die Einstrahlung des Laserlichts fragt dabei den Energiezustand des Ions ab und detektiert so die Frequenz des passenden „Uhrenübergangs“. Danach erfolgt eine Frequenzumsetzung vom optischen in den elektrischen Bereich, da ein zeitlicher Puls mittels zahlreicher, geeignet überlagerter Sinuswellen erzeugt werden kann. Diese bilden ein breites „Gitterwerk“, den „Frequenzkamm“, dessen Aufbau nur vom Abstand zwischen den Frequenzen und einer Verschiebung zum Nullpunkt bestimmt wird. Für diese Erkenntnis gab es 2005 sogar einen Nobelpreis. Im Bereich der Geodäsie wird sie genutzt, um zwei Uhren über Glasfaser und mittels einer Zweiwegemessung der Laufzeiten zwischen den Uhren starr miteinander zu koppeln und damit hochpräzise Zeitübertragung über hunderte Kilometer hinweg zu betreiben.

Download
Werbeplakat
GIZ_Atomuhren_A3.pdf
Adobe Acrobat Dokument 625.3 KB