Versuche BSc

Durchlaufpläne

Gruppe 1 (Montag/Dienstag) Inhalt einblenden

1.Versuch: Versuchstage  
Protokollabgabe am

2. Versuch: Versuchstage
Protokollabgabe am

3. Versuch: Versuchstage
Protokollabgabe am

4. Versuch: Versuchstage 
Protokollabgabe am 

Gruppe 2 (Mittwoch/Donnerstag) Inhalt einblenden

1. Versuch: Versuchstage  
Protokollabgabe am 

2. Versuch: Versuchstage
Protokollabgabe am

3. Versuch: Versuchstage
Protokollabgabe am 

4. Versuch: Versuchstage 
Protokollabgabe am 

Versuche

Optik / klassische Optik

Michelson-Interferometer Inhalt einblenden

Das Michelson-Interferometer ist hat sich im Laufe der "Jahrhunderte" als ein für Physiker universelles und vor allem unverzichtbares Messinstrument etabliert. Ziel des Versuchs ist, Ihnen genau diesen Tatbestand bewusst und nachvollziehbar zu machen. Im ersten Versuchsteil lernen Sie das Michelson-Interferometer als gebräuchliches Zweistrahl-Interferometer kennen. Michelson-Interferometer werden gebaut, um die Brechzahlhomogenität optischer Materialien zu messen, um die Wellenfrontdeformation -verursacht durch Objektive- zu bestimmen, um Oberflächenebenheit oder Oberflächenmaßhaltigkeit verschiedener Formen (auch Asphären) zu messen. Und alle diese Messmethoden arbeiten zum Teil auf höchstem Niveau in der Raumfahrt, Astronomie, beim Versuch des Nachweises von Gravitationswellen, oder bei der Herstellung von Optik für die Mikrostrukturierung. Im Praktikum werden Sie den Aufbau selbst vornehmen und justieren sowie die verschiedenen Betriebsarten und Messmethoden erproben. Im zweiten Versuchsteil lernen Sie den Michelson-Aufbau als optisches Fourier-Spektrometer kennen und setzen ihn zur Charakterisierung von Lichtquellen bzw. zur Messung des Absorptionsverhaltens von z.B. Wasser oder zur Bestimmung der Transmission von Filtern ein.

Lernziele

  • Erarbeitung der Grundlagen der Interferometrie
  • Kennenlernen der Anwendungsmöglichkeiten von Interferometern
  • Erarbeitung der Grundlagen der optischen Fourierspektroskopie
  • Anwendung der Fourierspektroskopie und der Möglichkeiten zur Verbesserung des Auflösungsvermögens

Experimentelle Technik

  • Michelson-Aufbau, verschiedene Spektrallampen und andere Lichtquellen
  • Michselson-Fourierspektrometer mit Verstärker und Computer zur Fourieranalyse des vom Photoelement bzw. vom    IR-Empfänger registrierten Signals

Versuchsanleitung MIF [pdf, 643 kb]

Betreuerin: B. Lüdge

 

Ellipsometer Inhalt einblenden

Die Ellipsometrie ist ein in der Laborpraxis weit verbreitetes und gängiges Verfahren zur Bestimmung von Brechungsindizees oder von Schichtdicken verschiedenster Materialien.  Die Geräte sind üblicherweise so konzipiert, dass ein eingewiesener Benutzer sie ohne tiefgreifendes Verständnis der physikalischen Zusammenhänge korrekt bedienen kann. Aus den ermittelten Messwerten können die gewünschten Informationen über die untersuchte Probe nicht analytisch berechnet werden, es müssen Modelle vom Probenaufbau erstellt werden, die mit den Ergebnissen numerischer Rechenoperationen verglichen werden. Im Versuch finden Sie einen Aufbau vor, mit dem das Reflexionsverhalten üblicher in der Optik verwendeter Materialien bzw. Oberflächen in Abhängigkeit vom Einfallswinkel des linear polarisierten Lichtes auf die zu untersuchende Oberfläche (Fresnelsche Formeln) gemessen werden kann. Anhand einfacher Oberflächen-Schicht-Systeme, die mit analytischen Auswertemethoden auskommen, werden Sie sich in die ellipsometrische Messtechnik einarbeiten.

Lernziele

  • Erarbeitung der Grundlagen der Polarisation elektromagnetischer Wellen
  • Kennenlernen der praxisrelevaten Spezialfälle der Fresnelschen Formeln
  • Messung der Brechzahlen verschiedener optischer Materialien
  • Einführung in die ellipsometrische Messtechnik

Experimentelle Technik

  • HeNe-Laser als Lichtquelle
  • Ellipsometer-Aufbau zur motorgesteuerten Einstellung der Einfallswinkel auf die
  • Probenoberfläche sowie der Drehwinkel der Polarisatoren (Polarisator und Analysator)
  • Signalverstärker mit Quadranten- Fotodiode als Empfänger
  • Phasenempfindlicher Gleichrichter-Verstärker
  • Computer zur Ansteuerung der Stellmotoren und zur Auswertung der Ergebnisse

Versuchsanleitung Elli [pdf, 541 kb]

Betreuerin: B. Lüdge

Holografie Inhalt einblenden

Die Holografie ist ein Verfahren zur vollständigen Aufzeichnung von Wellenfronten, d. h. neben der Intensität wird auch die Phase des Lichtwellenfeldes gespeichert. Im Unterschied zur gewöhnlichen Fotografie bleibt daher bei der Rekonstruktion einer Objektwellenfront der räumliche Eindruck des Objekts erhalten. Zur Aufnahme eines Hologramms wird ein Laserstrahl in zwei kohärente Wellen aufgeteilt. Die Objektwelle wird vom aufzunehmenden Objekt beeinflusst (z.B. reflektiert) und mit der ungestörten Referenzwelle überlagert. Das entstehende Interferenzmuster wird dann als Hologramm z.B. auf einer Fotoplatte aufgezeichnet. Beleuchtet man die entwickelte Fotoplatte mit der Referenzwelle, so wird die ursprüngliche Objektwelle rekonstruiert. Hologramme findet man nicht nur auf Kreditkarten oder im Unterhaltungsbereich, es werden auch auf holografischen Methoden beruhende messtechnische Verfahren weiterentwickelt.

Lernziele

  • Aufnahme und Rekonstruktion von Wellenfronten
  • Eigenschaften von Laserlicht: Wellenlänge, Polarisation, zeitliche und räumliche Kohärenz
  • Fresnel-Zonenplatte
  • Hologramminterferometrie

Experimentelle Technik

  • Laser als kohärente Lichtquelle
  • Linsen und Spiegel, mechanische Justiereinrichtungen
  • Fotoplatten, Fotochemie
  • Raumfilter

Versuchsanleitung Ho [pdf, 428 kb]

Betreuerin: B. Lüdge

Atom- und Molekülspektroskopie

IR- VIS - Spektroskopie Inhalt einblenden

Durch optische Spektroskopie im sichtbaren (VIS) und infraroten (IR) Spektralbereich wird die Wechselwirkung fester, flüssiger oder gasförmiger Stoffe mit elektromagnetischer Strahlung untersucht. Diese beruht im Allgemeinen auf der Anregung von Dipolübergängen in den Stoffen, welche zur selektiven Emission, Absorption, Streuung oder Reflexion bei bestimmten Frequenzen des Spektrums führen. Damit kann die chemische und physikalische Struktur der Stoffe analysiert werden. Optisch-spektroskopische Verfahren werden sowohl als Standard-Analysemethoden in Industrie und Labor als auch bei der Erforschung von Grenzflächenprozessen, Nanostrukturen und dünnen Schichten, chemischen Reaktionen und astronomischen Objekten eingesetzt.

Lernziele und Methoden

  • Aufbau und Justage eines einfachen Prismenspektrometers,
  • Erarbeitung der experimentellen Grundlagen der optischen Spektroskopie, insbesondere der Wellenlängeneichung, der Korrektur der spektralenSpaltbreite und der Theorie des spektralen Auflösungsvermögen
  • Kennenlernen von Strahlungsdetektoren sowie des Lock-in-Prinzips zur Signalregistrierung,
  • Messung derspektralen Intensitätsverteilung eine thermischen Strahlungsquelle bei verschiedenen Temperaturen und Vergleich mit Planck-Kurven,
  • Messung derAbsorptions- und Reflexionseigenschaften verschiedener Stoffe (molekulare Gase und Flüssigkeiten, Halbleiter, Ionenkristalle) in verschiedenen Spektralbereichen

Versuchsanleitung IR [pdf, 468 kb]

Betreuer: Dr. H. Mutschke

Spektroskopie der Sonne Inhalt einblenden

Die Sonne ist, als der uns am nächsten stehenden Fixstern, am besten erforscht. Bereits Joseph von Fraunhofer entdeckte die nach ihm benannten Absorptionslinien im Spektrum unseres Zentralgestirns. Mit der spektroskopischen Untersuchung der Sonne konnte ihre chemische Zusammensetzung genau erforscht werden, was z.B. die Entdeckung des Heliums zur Folge hatte. Zudem zeigte der Vergleich des Sonnenspektrums mit Spektren der Sterne des Nachthimmels, dass diese heiße leuchtende Sonnen sind, die in großer Entfernung zur Erde stehen. Die Spektroskopie der Sterne führte zur Entdeckung der Hauptreihe im Hertzsprung-Russel-Diagramm und ermöglichte schließlich die genaue Klassifikation der Sterne, z.B. als Zwerg- oder Riesensterne.

CCD-Detektoren kommen heute bei der astronomischen Beobachtung und Spektroskopie im Optischen an allen Observatorien der Welt zum Einsatz. Die Charakterisierung der Eigenschaften dieser Detektoren sowie die Auswertung der mit ihnen gewonnenen Daten zählen zu den wichtigsten Grundkenntnissen in der heutigen astronomischen Forschungsarbeit. Wegen ihrer hohen Quanteneffizienz ermöglichen diese Detektoren die Beobachtung extrem leuchtschwacher Himmelskörper und liefern in Kombination mit einem Spektrographen präzise Informationen über die spektralen Eigenschaften der untersuchten Objekte.

Lernziele

  • Kennenlernen der wesentlichen Eigenschaften von CCD-Detektoren
  • Erlernen der Grundlagen zur Bearbeitung und Analyse von CCD-Daten
  • Kennenlernen der grundlegendsten Eigenschaften eines Spaltspektrographen
  • Erlernen der Grundlagen zur Kalibration von Spektren (z.B. Wellenlängenkalibration)
  • Aufnahme und Analyse des Sonnenspektrums

Versuchsanleitung So [pdf, 1021 kb]

Betreuer: Dr. H. Mutschke

Zeeman-Effekt Inhalt einblenden

In diesem Versuch werden grundlegende Eigenschaften des Atombaus und deren Einfluss auf die Spektroskopie kennen gelernt.  Werden strahlende Atome  einem Magnetfeld  ausgesetzt, kommt  es  durch  die  Wechselwirkung  zu  einer  energetischen  Verschiebung  bestimmter Energieniveaus  und  zu  einer  Energieaufspaltung.  Die  einzelnen  Linien  weisen  zum  Teil unterschiedliche  Polarisation  auf.  Diese  Aufspaltung,  die  proportional  zum  Magnetfeld  ist, wird  im  Versuch  für  verschiedene  Spektrallinien  untersucht.  Aus  den  Aufspaltungen  kann man das  Verhältnis  e/m  und den  Landé-Faktor  bestimmen. Sie lernen die Spektralapparate mit  den  höchsten  derzeit  erreichten  Auflösungsvermögen  im  sichtbaren  Spektralbereich kennen. Für  die  Arbeiten  über  den  Effekt  des  Einflusses  von  Magnetfeldern  auf  die Strahlungseigenschaften von Atomen erhielt P. Zeeman 1902 den Nobelpreis für Physik.

Lernziele

  • Erarbeitung der Grundlagen der hochauflösenden Spektroskopie mit Interferenzspektralapparaten und deren wichtigster Parameter: freier Spektralbereich, Auflösungsvermögen, Finesse, Interferenzen gleicher Neigung und gleicher Dicke
  • Messung geringer Lichtintensitäten mit CCD-Kamera
  • Erzeugung hoher Magnetfelder
  • Anwendung atomphysikalische Grundbegriffe: z.B. Bahndrehimpuls, Spin, Quantenzahlen, Pauliprinzip, Spin-Bahn-Wechselwirkung, Multiplizität, magnetisches Moment, Feinstrukturaufspaltung
  • Kennenlernen des normalen und anomalen Zeemaneffektes, Nutzung zur Bestimmung des Verhältnisses e/m

Versuchsanleitung Zee [pdf, 444 kb]

Betreuer: Dr. H. Mutschke

Laser und optisch nichtlineare Effekte

Gaslaser Inhalt einblenden

Das Wort LASER ist die Abkürzung für "Light Amplification by Stimulated Emission of Radiation".  Dabei  handelt  es  sich  um  eine  Strahlungsquelle,  die  auf  der  1917  von Einstein  vorhergesagten  stimulierten  Emission  beruht.  Mit  diesem  physikalischen Prinzip  ist  es  möglich,  elektromagnetische  Strahlung  zu  verstärken.  Setzt  man  ein verstärkendes  Medium  in  einen  Resonator,  so  kann  durch  die  auftretende Rückkopplung  der  Verstärker  zum  Oszillator  -  dem  eigentlichen  Laser  -  werden. Heutzutage  versteht  man  unter  diesem  Begriff  aber  auch  Systeme,  die  auf  den Resonator oder das aktive Medium verzichten können (OPO/OPA, FEL). Der Effekt der Verstärkung von Licht wurde 1928 von A. Ladenburg experimentell in einer Neon-Gasentladung  nachgewiesen. 1954  wurde  zum  ersten  Mal  Strahlung durch stimulierte Emission erzeugt (Townes, NH 3 -Maser bei 23,9 GHz). Auf der Basis der  Arbeiten  von  Basow,  Prochorow,  Townes  (Nobelpreis  1964)  und  Schawlow entwickelte  Maiman  1960  den  ersten  Laser  (Rubinlaser  bei  694  nm),  der  im Impulsbetrieb  arbeitete.  Ein  Jahr  später  entstand  der  erste  cw-Laser  (continuous wave) durch Javan et al. (HeNe-Laser bei 1,15 μm). Seit dieser Zeit sind vielfältige neue Festkörper- und Gas-Laser entwickelt, aber auch neue Lasermedien wie etwa Halbleiter  erschlossen  worden.  Die  Erzeugung  kurzer  Pulse  und  damit  auch  hoher Intensitäten  hat  am  IOQ  Tradition,  die  mit  dem  POLARIS-Laser  einen  weltweit einmaligen  Meilenstein  geschaffen  hat.  Darüber  hinaus  sind  die  anderen  Optik- Institute  der  Fakultät  und  deren  Partner  (IAP,  IFTO,  IPhT)  weltweit  führend  in  der Grundlagenforschung  und  Entwicklung  neuer  Lasersysteme  und  optischer Komponenten  für  ein  Vielzahl  von  Anwendungen  in  der  Materialbearbeitung  und Kommunikation.

Lernziele

  • Erarbeitung der Grundlagen eines Dauerstrich-Gaslasers
  • Justage und Optimierung des Resonators
  • Messung des Einflusses der Resonatorgeometrie auf die Strahlparameter
  • Untersuchungen zu höheren transversalen Moden
  • Untersuchungen zum spektralen Verstärkungsprofil eine Singlemode-Lasers
  • Erarbeitung der Grundlagen des optischen Heterodyn
  • Untersuchung der longitudinalen Moden eines Multimode-Lasers durch optisches Heterdyning mit einem Singlemode-Laser
  • Untersuchungen zur Frequenzstabilität

Experimentelle Technik

  • Multimode-HeNe-Laser, optische Bank, dielektrische Spiegel
  • Singlemode-Laser, SEV, Oszilloskop
  • Laserschutz

Versuchsanleitung GL [pdf, 638 kb]

Betreuer: Dr. J. Hein

Diodenlaser Inhalt einblenden

Das Wort LASER ist die Abkürzung für "Light Amplification by Stimulated Emission of Radiation". Dabei handelt es sich um eine Strahlungsquelle, die auf der 1917 von Einstein vorhergesagten stimulierten Emission beruht. Mit diesem physikalischen Prinzip ist es möglich, elektromagnetische Strahlung zu verstärken. Setzt man ein verstärkendes Medium in einen Resonator, so kann durch die auftretende Rückkopplung der Verstärker zum Oszillator - dem eigentlichen Laser - werden. Heutzutage versteht man unter diesem Begriff aber auch Systeme, die auf den Resonator oder das aktive Medium verzichten können (OPO/OPA, FEL). Der Effekt der Verstärkung von Licht wurde 1928 von A. Ladenburg experimentell in einer Neon-Gasentladung nachgewiesen. 1954 wurde zum ersten Mal Strahlung durch stimulierte Emission erzeugt (Townes, NH 3 -Maser bei 23,9 GHz). Auf der Basis der Arbeiten von Basow, Prochorow, Townes (Nobelpreis 1964) und Schawlow entwickelte Maiman 1960 den ersten Laser (Rubinlaser bei 694 nm), der im Impulsbetrieb arbeitete. Ein Jahr später entstand der erste cw-Laser (continuous wave) durch Javan et al. (HeNe-Laser bei 1,15 μm). Seit dieser Zeit sind vielfältige neue Festkörper- und Gas-Laser entwickelt, aber auch neue Lasermedien wie etwa Halbleiter erschlossen worden. Die Erzeugung kurzer Pulse und damit auch hoher Intensitäten hat am IOQ Tradition, die mit dem POLARIS-Laser einen weltweit einmaligen Meilenstein geschaffen hat. Darüber hinaus sind die anderen Optik- Institute der Fakultät und deren Partner (IAP, IFTO, IPhT) weltweit führend in der Grundlagenforschung und Entwicklung neuer Lasersysteme und optischer Komponenten für eine Vielzahl von Anwendungen in der Materialbearbeitung und Kommunikation.

Lernziele

  • Erarbeitung der Grundlagen einer Laserdiode und eines Festkörperlasers
  • Messung der Eigenschaften der Laserdiode
  • Kennenlernen der Möglichkeiten der Anregung von Nd:YAG
  • Fluoreszenz und Lebensdauer von Nd:YAG
  • Bau eines diodengepumpten Nd:YAG-Lasers
  • Wirkungsgrad des Nd:YAG-Lasers
  • Erzeugung der zweiten Harmonischen (SHG)

Experimentelle Technik

  • Laserdioden-Modul, Steuergerät
  • optische Schiene, Optiken, Photodioden, Leistungsmessgeräte
  • Nd:YAG, KTP
  • Oszilloskop
  • Gitterspektrometer
  • Laserschutz

Versuchsanleitung DL [pdf, 357 kb]

Betreuer: Dr. J. Hein

Nd:YLF - Laser Inhalt einblenden

Ziel ist das Kennenlernen des typischen Verhaltens eines blitzlampengepumpten Frstkörperlasers und des Prinzips der Güteschaltung zur Erzeugung von Laserimpulsen im ns-Bereich sowie der Modensynchronisation zur Erzeugung von Laserimpulsen im ps-Bereich. Güteschaltung des Resonators wird mit Hilfe einer schnell geschalteten Pockelszelle erreicht. Die Modensynchronisation wird hier duch eine positive Rückkopplung durch "intracavity" - erzeugte zweite Harmonische (SHG) und deren Rückumwandlung erzeugt. Sie lernen die Funktion eines Autokorrelators zur Messung der Impulsdauer kennen und befassen sich mit nichtlinearer Optik, insbesondere der Erzeugung der SHG und der dazu notwendigen Phasenanpassungsbedingungen in doppelbrechenden Kristallen.

Versuchsanleitung NL [pdf, 1008 kb]

Betreuer: Dr. J. Hein

Röntgenstrahlung und Kristallstrukturanalyse

Drehkristallverfahren Inhalt einblenden

Das Drehkristallverfahren ist ein Standardverfahren der Röntgenfeinstrukturanalyse für einkristalline Materialien. Mit monochromatischer Röntgenstrahlung werden die Beugungswinkel und gebeugten Intensitäten möglichst vieler Interferenzen eines Kristallgitters gemessen. Die Röntgenfeinstrukturanalyse bestimmt aus diesem Beugungsbild durch eine Fourieranalyse die Elektronendichteverteilung in der Elementarzelle des Atomgitters. Heutzutage werden selbst komplizierte Strukturen, wie Proteine, mit diesen Methoden aufgeklärt. Nach der Entdeckung der Röntgenstrahlung durch W.C. Röntgen 1895 (erster Nobelpreis für Physik 1901) bekam M. von Laue den Nobelpreis für Physik 1914 für die Entdeckung der Röntgenbeugung an Kristallgittern. Danach wurden sieben weitere Nobelpreise für Physik und sechs Nobelpreise für Chemie für Leistungen zur Strukturaufklärung mit Röntgen-, Elektronen- bzw. Neutronenstrahlen und zur Röntgenspektroskopie vergeben (näheres zur Geschichte in den Anleitungen).

Lernziele

  • Grundbegriffe der Kristallographie
  • Röntgenbeugung am dreidimensionalen Atomgitter 
  • Strukturbestimmung einfacher Kristallstrukturen 
  • Wechselwirkung von Röntgenstrahlung mit Materie 
  • Eigenschaften von Röntgenquellen, wie Spektrum und Brillianz. 
  • Nachweis ionisierender Strahlung 
  • Strahlenschutz

Experimentelle Technik

  • Röntgengenerator mit Röhre zur Erzeugung von Röntgenstrahlung
  • Drehkristallkamera
  • optisches Zweireflexgoniometer zur Vorjustierung
  • Röntgenfilm
  • Photometrierung mit Photometer bzw. Durchlichtscanner
  • Abbe-Komparator
  • PC zur Auswertung

Versuchsanleitung

DK [pdf, 258 kb]

Betreuer: Dr. I. Uschmann

Debye-Scherrer-Verfahren Inhalt einblenden

Das Debye-Scherrer-Verfahren ist das einfachste Verfahren der Röntgenfeinstruturanalyse für einfache polykristalline Materialien. Mit monochromatischer Röntgenstrahlung werden die Beugungswinkel und gebeugten Intensitäten möglichst vieler Interferenzen eines Kristallgitters gemessen. Die Röntgenfeinstrukturanalyse bestimmt aus diesem Beugungsbild durch eine Fourieranalyse die Elektronendichteverteilung in der Elementarzelle des Atomgitters. Heutzutage dienen diese oder ähnliche Methoden der Röntgendiffraktometrie als Standardmethode z.B. zur Kristallphasenuntersuchung von Festkörpern (Materialanalyse), zur Bestimmung von Spannungen und Korngrößen in Festkörpern sowie zur Analyse von dünnen Schichten in Forschung und Technik. Nach der Entdeckung der Röntgenstrahlung durch W.C. Röntgen 1895 (erster Nobelpreis für Physik 1901) bekam M. von Laue den Nobelpreis für Physik 1914 für die Entdeckung der Röntgenbeugung an Kristallgittern. Danach wurden sieben weitere Nobelpreise für Physik und sechs Nobelpreise für Chemie, u. a. P. Debye für Leistungen zur Strukturaufklärung mit Röntgen-, Elektronen- bzw. Neutronenstrahlen und zur Röntgenspektroskopie vergeben (näheres zur Geschichte in den Anleitungen).

Lernziele

  • Grundbegriffe der Kristallographie
  • Röntgenbeugung am dreidimensionalen Atomgitter
  • Strukturbestimmung von polykristallinen Materialien
  • Wechselwirkung von Röntgenstrahlung mit Materie
  • Eigenschaften von Röntgenquellen, wie Spektrum und Brillianz.
  • Nachweis ionisierender Strahlung
  • Strahlenschutz

Experimentelle Technik

  • Röntgengenerator mit Röhre zur Erzeugung von Röntgenstrahlung
  • Debye-Scherrer-Kamera
  • Röntgenfilm
  • Photometrierung mit Photometer bzw. Durchlichtscanner
  • Abbe-Komparator
  • PC zur Auswertung

Versuchsanleitung

DS [pdf, 275 kb]

Betreuer: Dr. I. Uschmann

Röntgen - Spektroskopie Inhalt einblenden

In diesem Versuch werden Grundlagen moderner Methoden der Röntgenspektroskopie sowie deren Anwendung kennen gelernt. Es werden Emissionsspektren von einer Röntgenröhre und von Fluoreszenzproben  sowie  ein  Compton-gestreutes  Spektrum  gemessen.  Weiterhin  wird ein  Absorptionsspektrum  für  Röntgenstrahlung  bestimmt.  Der  Zusammenhang  der Röntgenspektren  mit  wichtigen  atomphysikalischen  Eigenschaften  wird  untersucht.  Die verschiedenen  Verfahren  der  Röntgenspektroskopie  (Fluoreszenzspektroskopie, Absorptionsspektroskopie,  inelastische  Streuung),  die  in  diesem  Versuch  kennen  gelernt werden, finden heute weit verbreitete Anwendung, z. B. in der modernen Festkörperphysik, der Materialuntersuchung und Elementanalyse. Nach der Entdeckung der Röntgenstrahlung durch W.C. Röntgen  1895 (erster Nobelpreis für Physik  1901) bekam  M.  von Laue den Nobelpreis  für Physik 1914 für die Entdeckung der Röntgenbeugung  an  Kristallgittern.  Danach  wurden  7  weitere  Nobelpreise  für  Physik,  u.a. 1917 C. G. Barkla für die Arbeiten der Röntgenspektroskopie, und 6 Nobelpreise für Chemie für Leistungen zur Strukturaufklärung mit Röntgen-, Elektronen- bzw. Neutronenstrahlen und zur Röntgenspektroskopie vergeben.

Lernziele

  • Grundlagen der Atomphysik, z.B. Moseleysches Gesetz
  • Fluoreszenz, Augereffekt, Comptoneffekt
  • Grundbegriffe der Kristallografie
  • Röntgenbeugung am dreidimensionalen Atomgitter
  • Grundbegriffe der Spektroskopie, wie Auflösungsvermögen, Dispersion
  • Wechselwirkung von Röntgenstrahlung mit Materie
  • Eigenschaften von Röntgenquellen, wie Spektrum und Brillanz.
  • Detektion ionisierender Strahlung, wie Szintillationsdetektor, Halbleiterdetektor
  • Strahlenschutz

Experimentelle Technik

  • Röntgengenerator mit Röhre zur Erzeugung von Röntgenstrahlung
  • Einkristallspektrometer, 
  • Fluoreszenzaufsatz zur Probenhalterung
  • Szintillationsdetektor, gekühlte PIN Photodiode
  • Vielkanalanalysator
  • Impulsdichtemeßgerät SMCA
  • PC zur Datenerfassung mit Lab View bzw. mit dem Vielkanalanalysator sowie Auswertung
  • Schrittmotorsteuerung zur Bewegung der Goniometermotoren

Versuchsanleitung

RS [pdf, 314 kb]

Betreuer: Dr. I. Uschmann

Elektronen und Radiowellen

NMR - Spektroskopie Inhalt einblenden

Kernspinresonanz (NMR) und Elektronenspinresonanz (ESR) beruhen auf der quantisierten Ausrichtung  atomarer  magnetischer  Momente,  der  Elektronen-  bzw.  Kernspins,  in  einem äußeren Magnetfeld,  wobei  Übergänge zwischen den entsprechenden  Energieniveaus  durch Einstrahlung  eines  definierten  Hochfrequenzsignals  ("Resonanz")  erzeugt  werden.  Die Frequenz dieses HF-Signals ist außer vom äußeren Magnetfeld von den  Eigenschaften der nächsten  Umgebung  der  Spins  (chemische  Verschiebung,  Spin-Spin-Wechselwirkungen) abhängig.  Damit  sind  ESR-  und  insbesondere  NMR-Spektroskopie  wichtige  Verfahren  zur Analyse der chemischen Struktur insbesondere auch von komplexen organischen Molekülen sowie zur dreidimensionalen Abbildung von Festkörpern (Magnet-Resonanz-Tomographie).  Nicht  alle  Atomkerne  besitzen  einen  resultierenden  Kernspin  und  damit  ein  magnetisches Moment. Es gab bisher 4 Nobelpreise im Umfeld der NMR-Spektroskopie: 1952 (Physik) Bloch und Purcell  für  die  Entdeckung,  1991  und  2002  (Chemie)  Ernst  bzw.  Wüthrich  für  die Anwendung zur Analyse insbesondere von organischen Makromolekülen und 2003 (Medizin) Lauterbur und Mansfield für die Diagnostik (MRT) mittels NMR.

Lernziele

  • Erarbeitung der Grundlagen der NMR-Spektroskopie
  • Durchführung einfacher Impuls-NMR-Experimente
  • Kennen lernen der Fourier-Transform-Spektroskopie mit digitaler Messwert-Verarbeitung
  • Optimierung der Messwertaufnahme (Anregung, Abtasttheorem, spektrale Auflösung, …)
  • Grundlagen der Frequenz- und Amplitudenmodulation
  • Untersuchung von Möglichkeiten zur Verbesserung der spektralen Auflösung
  • Interpretation der NMR-Spektren von Flüssigkeiten (Wasser, Alkohol, etc.)
  • Experimentelle Bestimmung von Kernspin-Wechselwirkungen: Spin-Spin-Wechselwirkung, chemische Verschiebung, Spin-Gitter-Relaxation, Spin-Echo

Experimentelle Technik

  • Fouriertransform-NMR-Spektrometer
  • 1H-NMR-Flüssigkeitsmesskopf 25 MHz
  • Permanentmagnet mit Shim-System zur Magnetfeld-Homogenisierung
  • Hochfrequenz-Generator
  • HF-Impulsverstärker, HF-Sender und HF-Empfänger
  • HF-Nachweiselektronik, Demodulation mittels Lock-In-Technik
  • Schnelle Probenrotation
  • PC mit LabVIEW-Messwerterfassung und Fast-Fourier-Transformation
  • Digital-Oszi

Versuchsanleitung NMR [pdf, 815 kb]

Betreuer: Dr. F. Schrempel

Elektronen - Emission Inhalt einblenden

In diesem Versuch werden sowohl die Grundlagen des Photoeffektes als auch des glühelektrischen Effektes kennen gelernt. Dazu werden grundlegenden Prinzipien der Festkörperphysik und des Welle-Teilchen-Dualismus elektromagnetischer Strahlung im sichtbaren Spektralbereich vermittelt.
Mit verschiedenen Spektrallinien einer Quecksilberdampflampe wird unter Ausnutzung des äußeren photoelektrischen Effektes die Einsteinsche Gleichung zum Photoeffekt experimentell nachvollzogen (Versuchsteil A). Aus der Messung können das Verhältnis h/e sowie die Austrittsarbeit der Anode bestimmt werden. Insbesondere für die Arbeiten zu diesem Effekt erhielt Albert Einstein 1921 den Nobelpreis für Physik. Weiterhin werden Sie für eine Vakuumdiode mit Glühkathode I-U-Kennlinien für verschiedene Kathodentemperaturen aufnehmen (Versuchsteil B). Die Temperatur der Kathode wird mit einem Pyrometer berührungslos gemessen. Durch das Anfitten der Richardson-Gleichung können die Austrittsarbeit des Kathodenmaterials sowie die effektiv wirksame Kathodenoberfläche bestimmt werden. Der glühelektrische Effekt findet eine weite Verbreitung in Forschung und Technik, wie z.B. in der Elektronenmikroskopie, für den Bau von Elektronenröhren, Röntgenröhren und Senderöhren. Für die Arbeiten zum glühelektrischen Effekt erhielt O.W. Richardson 1928 den Nobelpreis für Physik.
Die Messwertaufnahme wird für beide Versuchsteile computergestützt erfolgen. BSc-Studierende sollen dazu ein entsprechendes LabVIEW-Programm zur Messdatenaufnahme selbst anfertigen. Programmierkenntnisse sind hilfreich, aber nicht unbedingt erforderlich.

Lernziele

  • Welle-Teilchen-Dualismus
  • Potentialtopfmodell für Metalle: Austrittsarbeit, Fermi-Verteilung, Fermi-Energie
  • Äußerer und innerer photoelektrischer Effekt
  • Kontaktspannung
  • Schottky-Effekt, Raumladungsbereiche
  • Glühelektrischer Effekt
  • Monochromatisierung von Licht mittels Prismenmonochromator, Metallinterferenzfilter
  • Computergestütze Messwertaufnahme und Programmierung mittels LabVIEW
  • Messung kleiner Ströme (DC)
  • Pyrometrische Messung hoher Temperaturen: Plancksches Strahlungsgesetz

Experimentelle Technik

  • Vakuumphotozelle
  • Vakuumdiode mit Glühkathode
  • Quecksilberdampflampe
  • Prismenspektrometer nach Wadsworth
  • Metallinterferenzfilter
  • Piko-Amperemeter
  • Messinterface mit LabVIEW-Steuerung
  • Pyrometer

Versuchsanleitung EE [pdf, 892 kb]

Betreuer: Dr. M. Grünewald

Radiowellen Inhalt einblenden

Elektromagnetische Wellen (EM-Wellen) werden seit mehr als 100 Jahren bei drahtgebundenen und drahtlosen Übertragungsverfahren benutzt. EM-Wellen sind die physikalische Grundlage bei der traditionellen drahtlosen Übertragung wie Rundfunk, Fernsehen und Funkverbindungen. Auch moderne Kommunikationsmittel wie Mobilfunk (GSM, UMTS, LTE), DECT, WLan,WiMAX, Bluetooth, DAB, DVB-S, DVB-T, GPS, RFID etc. benutzen EM-Wellen zur Informationsübertragung.  Diese  findet  im  typischen  Radiofrequenzbereich  MHz  bis  einige GHz)  statt.  Auch  in  der  drahtgebundenen  Übertragungstechnik  wie  Telefonverbindungen, Breitbandanschlüsse, DSL, LAN und anderen Internetverbindungen werden EM-Wellen genutzt.  Grundlage  für  die  Übertragung  von  größeren  Informationsraten  ist  die  Modulation. Hierbei wird der EM-Welle als Trägerfrequenz ein Nutzsignal aufgeprägt.

Experimentelle Technik

  • Reflexion und stehende Wellen bei Fehlanpassung der Übertragungsleitung
  • Ausbreitungsgeschwindigkeit / Laufzeit der Wellen auf Leitungen
  • Übertragung höherer Frequenzen und kurzer Impulse über Kabel
  • Modulation/Demodulation von Signalen (Zeit- und Frequenzbereich)
  • Abstrahlung/Empfang von Radiowellen über Antennen
  • Aufbau einer drahtlosen Übertragungsstrecke

Versuchsanleitung RW [pdf, 2 mb]

  und

weiterführende Informationen

Betreuer: F. Perner

Nanostrukturanalyse

Rastersonden - Mikroskop Inhalt einblenden

Das  Verfahren  der  Raster-Tunnel(elektronen)-Mikroskopie  (Scanning  Tunneling  Microscopy) beruht auf dem quantenmechanischen Tunneleffekt, der es  - im Widerspruch zur klassischen Physik - Elektronen erlaubt, eine Potentialbarriere zu überwinden, die größer ist als die Energie der Elektronen. Die exponentielle Abhängigkeit des Tunnelstroms vom Abstand zweier leitfähiger Objekte wird genutzt, indem eine metallische Spitze in geringem Abstand entlang eines Rasters  über eine Oberfläche bewegt  wird, um  aus Spitzenposition und Tunnelstrom ein dreidimensionales Abbild dieser Oberfläche zu gewinnen. Die erreichbare Auflösung liegt im Ångström-Bereich und ist damit um Größenordnungen besser als die theoretisch erreichbare Auflösung von Lichtmikroskopen. Der geringe Abstand zwischen Probe und Spitze stellt hohe Anforderungen an die mechanische Schwingungsdämpfung des STM.  Ein  erstes  Gerät  zur  Vermessung  der  Mikrotopographie  von  Oberflächen  stellten  bereits   Young, Ward und Scire 1972 vor. Während ihr sog. Topografiner jedoch auf Feldemission beruhte, konnten Binnig und Rohrer neun Jahre später das erste richtige Tunnel-Mikroskop realisieren, das eine deutlich höhere Auflösung bot und für das beide 1986 mit dem Nobelpreis in Physik ausgezeichnet wurden. Mit dem wenige Jahre nach dem  STM entwickelten Rasterkraftmikroskop (AFM) können auch nichtleitende Materialien untersucht werden. Rastermikroskopieverfahren  werden  unter  dem  Begriff  Rastersondenmikroskopie,  engl. "Scanning Probe Microscopy SPM" zusammengefasst, z.B. REM, AFM, MFM, SNOM u.a.

Lernziele

  • Kennen lernen der verschiedenen Rastersonden-Mikroskopieverfahren (SEM, TEM, STM, AFM, FEM), deren Einsatzmöglichkeiten und deren Grenzen
  • Kennen lernen der Funktionsweise und Einsatzmöglichkeiten eines Raster-Tunnel-Mikroskops, Vergleich mit anderen Mikroskopieverfahren (REM, LiMi, AFM)
  • Kennen lernen der verschiedenen Betriebsmodi
  • Kennen lernen der Möglichkeiten zur Spitzenpräparation und Steuerung
  • Kennen lernen von Piezoaktoren und -Scannern
  • Untersuchung spezieller Oberflächen bis zu atomarer Auflösung
  • Erkennen und Vermeiden möglicher äußerer Störeinflüsse
  • Erkennen und Erklären von Abbildungsfehlern
  • Nutzung verschiedener Bildbearbeitungsmethoden insbesondere 2D FFT
  • Sorgfalt und Sauberkeit bei Untersuchungen im Nanometerbereich

Experimentelle Technik

  • Nanosurf  Easyscan 2 Scanning Tunnelling Microscope
  • Piezo-Scanner zur Spitzensteuerung und Piezomotor zur Grobannäherung
  • PC und Steuereinheit: Einfluss auf Tunnelspannung und Tunnelstrom sowie PID-Regelkreis und Abtastrate
  • Software zur Bildaufnahme und -bearbeitung (einschl. Fast-Fourier-Transformation) 
  • Probenpräparation z.B. Aufdampfen von Schichten in einer Hochvakuumkammer 
  • Spitzenpräparation
  • Lichtmikroskope 
  • Der Versuch kann mit dem Versuch Raster-Elektronen-Mikroskop kombiniert werden, zum Beispiel zur Abbildung der Tunnelspitzen sowie für vergleichende Untersuchungen von STM-Proben (siehe spezielle Versuchsanleitung REM)

Versuchsanleitung SPM [pdf, 843 kb]

Betreuer: Dr. M. Grünewald

Raster - Elektronen - Mikroskop Inhalt einblenden

In vielen  Bereichen  ist  die visuelle Kontrolle  von selbst erzeugten oder zu untersuchenden Variationen  von  Strukturen  oder  Oberflächen  eine  unabdingbare  Methode.  Neben Lichtmikroskopen  werden  schon  seit  langem  Elektronenmikroskope  zur  Darstellung  bis hinunter in den Nanometerbereich eingesetzt. Durch die Wechselwirkung der Elektronen mit dem Material in den oberen Schichtbereichen entsteht durch die Struktur der Oberfläche und  der  Zusammensetzung  unterschiedlicher  Materialien  ein  mehr  oder  weniger  kontrastreiches Bild. Dieses Bild kann durch die Wahl der Elektronen (Rückstreu- oder Sekundärelektronen, RE bzw. SE), der Energie des einfallenden Elektronenstrahls, dem Einfallswinkel zwischen Elektronenstrahl  und  Probenoberfläche,  Aufladungseffekte  der  Probe,  usw.  optimiert  bzw. verschlechtert  werden.  Man  unterscheidet  im  Wesentlichen  zwischen  dem Rasterelektronenmikroskop (REM), bei dem der Elektronenstrahl die Probe abrastert und in Rückstreuung detektiert wird, und dem Transmissionselektronenmikroskop (TEM), bei dem durch  eine  sehr  dünne  Probe  mit  einem  Elektronenstrahl  durchstrahlt  wird.  Durch Kombination  mit  einem  Röntgenspektrometer  sind  lokal  aufgelöste  Analysen  der Elementzusammensetzung  möglich.  An  kristallinen  Proben  können  durch  Interferenz  der Elektronen Strukturinformationen gewonnen werden (z.B. electron channeling).

Lernziele

  • Umgang mit Elektronenmikroskopen
  • Vergleich der wichtigsten Mikroskopie-Verfahren und deren Einsatzgebiete
  • Probenpräparation, Vakuumtechnik
  • Erzeugung freier Elektronen, Ablenkung von Elektronen, Elektronenlinsen
  • Wechselwirkung von Elektronen mit Materie (Sekundär- und Rückstreu-Elektronen)
  • Elektronendiffusionswolke ("Streubirne/Anregungsbirne")
  • Detektion von Elektronen (SE, RE, absorbierter Strom)
  • Kontrastentstehung im Elektronenmikroskop, Tiefenkontrast, Materialkontrast
  • Energiedispersive Röntgenspektroskopie (EDX)
  • Elektronenbeugung/-kanalisierung (electron channeling pattern, Kikuchi-Linien)
  • Funktion und Aufbau von Submikrometerstrukturen

Experimentelle Technik

  • Rasterelektronenmikroskop Cambridge Stereoscan 120
  • Everhart-Thornley-Elektronen-Detektor
  • Halbleiterdetektor für Rückstreuelektronen
  • Detektor für Röntgenspektroskopie (PIN-Diode, Amptek),
  • Vielkanalanalysator MCA (FastComTec), Software MCDWIN
  • Steuer- und Auswerterechner, Software DISS/DIPS (point electronic)
  • Probenpräparation durch Vakuumaufdampfen von Metall- oder Kohlenstoffschichten
  • Lichtmikroskope

Versuchsanleitung REM [pdf, 819 kb]

Betreuer: Dr. F. Schrempel

Auger - Elektronen - Spektroskopie Inhalt einblenden

Die Auger-Elektronen-Spektroskopie (AES) ist neben der röntgenstrahl-angeregten Photoelektronen-Spektroskopie (XPS/ESCA/PES) die wichtigste Analysemethode für Oberflächen und dünne Festkörperschichten. Die Methode basiert auf der Emission von sogenannten Auger-Elektronen als Konkurrenzprozess zur Röntgenemission nach Anregung durch Elektronen oder Röntgenstrahlen. In der Regel wird zur Anregung ein Elektronenstrahl

im Energiebereich von 3 bis 10 keV verwendet. Da ein Elektronenstrahl im nm- und µm-Bereich fokussiert und zusätzlich gerastert werden kann, ist eine lokale Analyse eines Festkörpers möglich. Die Austrittstiefe der Auger-Elektronen ist dabei durch inelastische Wechselwirkung auf wenige Atomlagen begrenzt, so dass eine oberflächenempfindliche Analyse eines kleinen Festkörpervolumens möglich ist. Alle Elemente außer H und He sind
prinzipiell mittels AES messbar und unter Verwendung von empirischen Empfindlichkeitsfaktoren kann eine quantitative Bestimmung der chemischen
Zusammensetzung erfolgen. Die relative Empfindlichkeit für den Elementnachweis in einem Material liegt bei 10 -2 bis 10 -4 . Die Analyse einer Oberfläche erfordert Ultrahochvakuum. AES wird häufig mit Edelgas-Ionenätzen (sputtering) kombiniert, um Oberflächen zu reinigen oder durch schichtweisen Abtrag Tiefenprofile der Zusammensetzung zu ermitteln.

Lernziele und Methoden

  • Kennenlernen von Oberflächenanalyse-Methoden, Auger-Meitner-Effekt
  • Kennenlernen der Wechselwirkungsprozesse von Elektronen im Festkörper (in/elastische Streuung, An- und Abregungsprozesse, Sekundärstrahlung, Plasmonen)
  • Bestimmung der chemischen Zusammensetzung von Festkörper-Oberflächen
  • Kennenlernen von Ultrahochvakuumtechnik und Besonderheiten
  • Untersuchung zum Signal-Rausch-Verhältnis und Anwendung von Methoden zu dessen Verbesserung
  • Kennenlernen von Lock-In-Verstärker und Differentielle Abtastung

Experimentelle Technik

  • Elektronen-Spektrometer, Zylinder-Spiegel-Analysator, Sekundär-Elektronen-Verstärker, Raster-Elektronenquelle, Probenstrom-Abbildung
  • Ultrahochvakuum, Ionengetter-Pumpe, Titan-Sublimationspumpe
  • Probenschleuse mit Turbomolekular-Pumpe, Scroll-Pumpe
  • Vakuum-Messung, Ionisationsmessröhre, Massenspektrometer

Versuchsanleitung AES [pdf, 2 mb]

Betreuer: Dr. F. Schrempel

Festkörper / Vakuum

Bedampfung / Schichteigenschaften Inhalt einblenden

Für praktisch alle Hochtechnologiebereiche d.h. alle Mikro- und Nanotechnologien als auch für klassische Bereiche wie Maschinenbau, Optik und Energietechnik besitzt die Vakuumverfahrenstechnik eine Schlüsselfunktion. Mit verschiedensten Dünnschichttechnologien werden gezielt die mechanischen, optischen, elektrischen oder chemischen Eigenschaften durch Veränderung der Oberflächeneigenschaften verbessert und/oder neue Produkte überhaupt erst möglich gemacht.

Thermisches Verdampfen (auch Aufdampfen oder Bedampfen) ist die einfachste zur physikalischen Gasphasenabscheidung (PVD) gehörende hochvakuumbasierte Beschichtungstechnik. Die Schicht wird direkt durch Kondensation eines Materialdampfes des Ausgangsmaterials gebildet. Typische Prozessdrücke liegen unter 10-6 mbar. Um Oxydation zu vermeiden, muss die mittlere freie Weglänge sehr viel größer als die Rezipientendimension sein; der Gasdruck des Bedampfungsmaterials muss deutlich über dem Prozessdruck liegen. Diese und weitere solche Abhängigkeiten zwischen Vakuum- und Verdampfungskenngrößen bestimmen die Qualität und Reproduzierbarkeit der Schichtbildungsprozesse.

Die Temperaturregelung ist für das Schichtwachstum ein wichtiger Faktor, denn schon kleine Temperaturänderungen können große Unterschiede bei der Verdampfungsrate ergeben. Die Regelung ist über eine konstante Energiezufuhr zum Verdampfer nicht möglich, da die Wärmebilanz sehr vielfältig von äußeren Parametern abhängig ist. Die Abscheideregelung erfolgt über intrinsische Schichtdickenmessungen. Die Güte verschiedener intrinsischer Schichtdickenmessverfahren wird durch eine Vergleichsmessung mit einem Abbe-Fizeau-Interferometer überprüft.

Lernziele und Methoden

  • Methoden der Vakuumerzeugung für PVD-Verfahren
  • Zusammenhänge von Vakuumkenngrößen wie Enddruck, Saugrate, Leckrate, mittlere freie Weglänge und Bedeckungsrate mit der Schichtqualität
  • Vakuummessung in Bedampfungsanlagen
  • Herstellung dünner gedampfter Schichten
  • Methoden der Schichtdickenmessung
  • Elektrische Eigenschaften von dünnen Metallschichten

Experimentelle Technik

  • B-30 Bedampfungsanlage
  • Drehschiebervorpumpe, Turbopumpe, Meißner-Falle
  • Vakuummesstechniken
  • Schichtdickenmessverfahren Schwingquartz, optisch, elektrisch
  • Voltmeter/Datenlogger/PC mit Software für Datenverarbeitung

Betreuer: M. Thürk

Tieftemperatur - Eigenschaften Inhalt einblenden

Die Abhängigkeit der spezifischen Wärmekapazität bei tiefen Temperaturen kann klassisch nicht erklärt werden. Um die experimentell ermittelten Werte theoretisch zu begründen, bedurfte es der Quantentheorie, deren Grundlage Planck mit der Beschreibung der Strahlung eines "schwarzen Körpers" schuf. Viele Quanteneffekte können nur bei sehr tiefen (kryogenen) Temperaturen beobachtet werden. Die Majorität aller Physiknobelpreise in den letzten zwei Dekaden hatte mit der Erzeugung oder Anwendung (16 von 20) oder den speziellen physikalischen Effekten bei kryogenen Temperaturen (7 von 20) zu tun.

In diesem Praktikumsversuch werden grundlegende experimentelle Fertigkeiten beim Umgang mit kryogenen Temperaturen vermittelt. Sie ermitteln die spezifische Wärme von Kupfer und Blei in Abhängigkeit von der Temperatur. Aus der Temperaturabhängigkeit der elektrischen Leitfähigkeit kann man die Energielücke, Ladungsträgerkonzentration und Intrinsicdichte bestimmen. Die Dynamik von Experimenten bei kryogenen Temperaturen wird wesentlich durch den Wärmeübergang in tiefsiedenden Gasen bestimmt. Das Abkühlverhalten verschiedener Probenkörper in Flüssigstickstoff wird untersucht. Bei der Versuchsdurchführung werden Sie mit Geräten der Kryotechnik, der Kälteerzeugung und -speicherung, mit Messverfahren der Vakuumtechnik und vor allem mit Temperatur-Messverfahren vertraut gemacht.

Lernziele

  • Arbeitsweise von Kleinkältemaschinen für kryogene Temperaturen
  • Temperaturmessung bei tiefen Temperaturen
  • Temperaturabhängigkeit des elektrischen Widerstands von Halbleitern
  • Bestimmung der temperaturabhängigen Energielücke und Intrinsicdichte
  • Vermessung der spezifischen Wärmekapazität von Kupfer und Blei
  • Siedemechanismen bei tiefen Temperaturen

Experimentelle Technik

  • Gifford-McMahon Kleinkältemaschine
  • Refrigeratorkryostat
  • Temperaturmesstechnik
  • Vakuumerzeugung und -messung bei tiefen Temperaturen
  • Verdampferkryostat
  • Voltmeter/PC mit Software für Datenverwaltung

Betreuer: M. Thürk

Supraleitung / ac-Josephson-Effekt Inhalt einblenden

Das Verschwinden des elektrischen Widerstands, die Beobachtung des ideal diamagnetischen Verhaltens, das Auftreten quantisierter magnetischer Flussschläuche sind charakteristische Eigenschaften von Supraleitern. Diese Eigenschaften werden verständlich, wenn der supraleitende Zustand als kohärente Materiewelle beschrieben, also als ein makroskopisches Quantenphänomen betrachtet wird. Diese Effekte sind Grundlagen für die vielfältigen Anwendungen der Supraleitung. Die Verwendung supraleitender Magnete in Forschung und Medizin (z.B. bei der Kernspintomografie) ist Standard. Interferenzen zwischen kohärenten Materiewellen werden durch die Josephson-Effekte beschrieben und für hochempfindliche und/oder hochpräzise Messtechnik (z.B. SQUID; Spannungsstandard) genutzt.

Die Ausbildung einer makroskopischen Wellenfunktion ist die wesentliche Eigenschaft der Supraleitung. Ähnliche Eigenschaften wurden auch in anderen Bereichen der Physik gefunden. Auch Photonen in einem Laser, Helium-Atome unterhalb des Lambda-Punktes oder Atome aus Alkali-Elementen können durch Bose-Einstein-Kondensation kohärente Materiewellen bilden. Dabei werden extreme physikalische Zustände, z.B. die völlige Reibungsfreiheit in der Supraflüssigkeit, beobachtet. In den vergangenen 20 Jahren wurden allein sieben Nobelpreise für direkt mit der Supraleitung zusammenhängende Arbeiten vergeben.

Lernziele

  • Kryostatierung bei tiefen Temperaturen
  • Temperaturmessung bei kryogenen Temperaturen
  • Temperaturabhängigkeit des elektrischen Normalleitungswiderstandes von Supraleitern (Bestimmung der Sprungtemperatur)
  • Kritischer Strom als Funktion von Magnetfeld und Temperatur
  • Parametrische Untersuchung an einem Josephson-Kontakt
  • Bestimmung der Größe der Planckschen Konstante mit dem "Inversen Josephson-Effekt"

Experimentelle Technik

  • Flüssighelium - Experimentierkanne
  • Diverse Messstäbe für Tieftemperatur-Untersuchungen an
    • R(T) Messungen an diversen Supraleitern
    • Magnetfeldabhängigkeit des maximalen Suprastroms
    • Untersuchung an einem einzelnen Josephson-Kontakt
    • Inverser Josephson-Kontakt
  • Temperaturmesstechnik

Betreuer: M. Thürk

Kernphysik

Gamma - Spektroskopie Inhalt einblenden

Gammaspektroskopische Verfahren werden heute in vielen Bereichen von Medizin, Wissenschaft und Technik angewandt. Beim Betrieb von Kernreaktoren oder Teilchenbeschleunigern werden durch Kernreaktionen radioaktive Isotope erzeugt. Es ist eine wichtige Aufgabe der Gamma-Spektroskopie diese zu identifizieren und deren Aktivität zu bestimmen. Dies dient sowohl direkten Forschungszwecken als auch dem Strahlenschutz. Bei der Neutronen Aktivierungsanalyse (NAA) wird die Erzeugung radioaktiver Isotope gezielt ausgenutzt. Durch die Messung der nachfolgenden Gamma-Strahlung erhält man eine quantitative Elementanalyse der Probe.

Neben den offensichtlichen Anwendungen bei der Strahlenbehandlung spielt die Gammaspektroskopie in der Medizin unter anderem bei der Positronen-Emissions-Tomographie (PET) eine entscheidende Rolle. Eine weitere wesentliche Bedeutung der Gamma-Spektroskopie liegt in der Untersuchung von Umweltproben. Beispielsweise nach Reaktorunfällen, wie in Tschernobyl 1986 oder in Fukushima 2011, muss der Lebensraum vieler Menschen auf radioaktive Belastung überprüft werden.

Durch die Messung rückgestreuter Gamma-Quanten kann auch die Dichteverteilung hinter festen Oberflächen gemessen werden. Beim Zoll gibt es dazu tragbare Geräte. Beim VACIS®-System (Vehicle and Cargo Inspection System) werden nicht nur einzelne Container sondern Lastwägen und ganze Züge mit starken 137Cs oder 60Co Quellen bestrahlt, um aus der transmittierten Strahlung deren Inhalt zu bestimmen und bildlich darzustellen.

Lernziele

  • Umgang mit Szintillationsdetektoren, hochauflösendem Halbleiterdetektor, Elektronik.
  • Aufnahme und Auswertung von γ-Spektren
  • Messung und Diskussion der Energieauflösung und der Nachweiswahrscheinlichkeit als Funktion der γ-Energie
  • Experimentelle Bestimmung der Totzeitkorrektur
  • Analyse einer unbekannten Strahlungsquelle
  • Umweltradioaktivität: Pilze aus Tschernobyl, Bestimmung der Konzentration einer Kaliumjodid-Lösung, Untersuchung eigener Proben

Experimentelle Technik

  • High-Purity-Germanium (HP-Ge) Detektor, Szintillationdetektoren (NaI, Plastik)
  • Verstärker, A/D-Wandler, Vielkanalanalysator
  • Digital-OszilloskopPC mit Auswertesoftware

Versuchsanleitung

Gamma [pdf, 279 kb]

Betreuer: Dr. U. Reislöhner

Positronen - Vernichtung Inhalt einblenden

Tritt ein Positron in einen Festkörper ein, verliert es innerhalb von ca. 10^(-12) s seine kinetische Energie. Mit thermischer Energie kann das Positron dann im Festkörper diffundieren, bis es sich mit einem Elektron vernichtet (annihiliert). Für thermische Positronen ist die Annihilationswahrscheinlichkeit proportional zur Elektronendichte. Durch die Messung der Positronenlebensdauer lassen sich deshalb Aussagen über Gitterdefekte, insbesondere Leerstellen, in Festkörpern machen. Diese sind bezüglich der Umgebung negativ geladen, weil ein positives Ion fehlt. Das positive Positron kann nun von der Leerstelle eingefangen werden und hat am Platz der Leerstelle auf Grund der geringeren Elektronendichte eine längere Lebensdauer. Neben der Lebensdauermessung wird auch die Dopplerverbreiterung der 511 keV Vernichtungsstrahlung benutzt, um Aussagen über Leerstellen zu machen. Anwendungen ergeben sich nicht nur in der Festkörperphysik, sondern auch in der Medizin. Die Positronen-Emissions-Tomographie PET kann durch den koinzidenten Nachweis der Vernichtungsquanten eine Häufung radioaktiv markierter Moleküle (e+ -Strahler, z.B. 11C) bestimmen. Beispielsweise lassen sich mit Hilfe markierter Zuckermoleküle besonders energieverbrauchende Prozesse wie aktive Hirnregionen oder bösartige Zellwucherungen im Körper lokalisieren und dreidimensional bildlich darstellen.

Lernziele

  • Umgang mit Messelektronik der Kernphysik, Koinzidenzmesstechnik
  • Bestimmung der Zeitauflösung der Messapparatur
  • Messung der Positronenlebensdauer in einer Probe
  • direkte Messung der Ausbreitungsgeschwindigkeit von Gamma-Strahlung
  • Aktivitätsbestimmung einer Quelle durch Koinzidenzmesstechnik

Experimentelle Technik

Plastik-Szintillationsdetektor, Verstärker, Signalverzögerung, Constant-Fraction-Diskriminator (CFD), Zeit-Amplituden-Konverter (TAC), Analog-Digital-Konverter (ADC), Vielkanal-Analysator (VKA), digitales Oszilloskop

Versuchsanleitung

PV [pdf, 161 kb]

Betreuer: Dr. U. Reislöhner

Mößbauer - Effekt Inhalt einblenden

Geht ein angeregter freier Atomkern unter Aussendung eines Gamma-Quants in den Grundzustand über, dann erhält das Quant wegen der Impuls- und Energieerhaltung nicht die gesamte Anregungsenergie. Das Entsprechende gilt für den Fall der Absorption eines Gamma-Quants durch einen freien Atomkern im Grundzustand. Kernresonanzabsorption von Gammastrahlung wird deshalb mit freien ruhenden Atomkernen nicht beobachtet. Sie kann aber stattfinden, wenn sowohl die emittierenden als auch die absorbierenden Kerne in Kristallgittern eingebaut sind. In diesem Fall erhält man außerordentlich scharfe Emissions- bzw. Absorptionslinien. Die rückstoßfreie Resonanzabsorption von Gammastrahlung durch in Festkörper eingebaute Kerne wird als Mössbauer-Effekt bezeichnet. Die Energieschärfe dieser Absorptionsresonanzen macht sich die Mößbauer-Spektroskopie zunutze, um sehr kleine Verschiebungen bzw. Aufspaltungen der Kernniveaus durch die umgebende Elektronenstruktur zu messen. Beobachtet wird dabei der Übergang aus dem ersten angeregten Zustand in den Grundzustand eines Kernes, wobei durch Ausnutzung des Dopplereffektes die Gammaenergie durch Bewegung der Quelle gezielt verändert wird, um die Resonanz zu durchfahren.

Mit dem Mössbauer-Effekt lassen sich alle physikalischen Phänomene untersuchen, die die Energie von Gamma-Quanten um Beträge von der Größenordnung ihrer Linienbreite ändern. Die Mößbauer-Spektroskopie gestattet z.B. die Bestimmung von Kerneigenschaften angeregter Kernzustände (mittlere Lebensdauer, magnetisches Dipolmoment, elektrisches Quadrupolmoment) oder die Vermessung von lokalen magnetischen oder elektrischen Feldern, die die (Festkörper-) Umgebung am Kernort erzeugt. Am Beispiel des 14,4keV-Niveaus im Fe-57 in nicht-ferromagnetischer bzw. ferromagnetischer Umgebung sollen einerseits die Lebensdauer, das magnetische Moment des angeregten Kernzustands, das magnetische Feld am Kernort sowie die Isomerieverschiebung zwischen Quelle und Absorber bestimmt werden.

Lernziele

  • Umgang mit Messelektronik der Kernphysik
  • Aufnahme und Auswertung von γ-Spektren
  • Bestimmung der Energieaufspaltung durch Hyperfeinwechselwirkung
  • Messung der natürlichen Linienbreite

Experimentelle Technik

NaI(Tl)-Szintillationsdetektor, Verstärker, Einkanal-Diskriminator (SCA), Analog-Digital-Konverter (ADC), Vielkanal-Analysator (VKA), Frequenzgenerator, Mößbauerantrieb mit Steuereinheit, Signalverzögerer, Oszilloskop

Versuchsanleitung

Moess [pdf, 211 kb]

Betreuer: Dr. U. Reislöhner

Computational Physics (CP)
Fakultative Versuche im 2. F-Praktikumssemster

Polymerkristalle Inhalt einblenden

Polymere haben in der Forschung wie auch in der Industrie seit Anfang des 20.Jh. großes Interesse geweckt und zeigen eine große Vielfalt, was Struktur und Eigenschaften anbelangt. Vor allem Polyethylen, vom chemischen Aufbau eines der einfachsten Polymere, hat vielfache Anwendung in Medizin, Technik und Alltag gefunden. Daher ist es von besonderer Bedeutung, den Zusammenhang von Eigenschaften und Morphologie zu kennen.

Durch den einfachen Molekülaufbau kann es einen hohen Kristallinitätsgrad aufweisen. Einkristalline Materialien bieten eine gute Möglichkeit zur Strukturaufklärung.

Lernziele

  • Einführung in die Polymerphysik
  • Herstellung, Präparation und Analyse von verschiedenen Polymermorphologien
  • Grundlagen der Thermodynamik und Kinetik der Polymer-Einkristallzucht
  • Grundlagen der Raster-Elektronen (SEM) und Rasterkraft-Mikroskopie (AFM)

Versuchsanleitung

IMT [pdf, 231 kb]

Betreuer: C. Helbing

Kollision in Planetesimalsystemen CP Inhalt einblenden

Stöße in Vielteilchensystemen spielen in verschiedensten Bereichen der Physik (z.B. Kern- oder Plasmaphysik) oder der Chemie (z.B. Reaktionsnetzwerke) eine Große Rolle. Die hier behandelten wesentlichen Grundlagen finden daher breite Anwendung. Konkret sind Kollisionen beispielsweise in der Astrophysik bei der Entwicklung von Planetensystemen allgegenwärtig. Neben der Gravitation spielen Sie dort eine entscheidende Rolle dabei, ob und wie effizient sich Planeten, Asteroiden und Kometen bilden - und wieder zerstören. Das beginnt mit dem Verklumpen kleinster Staubpartikel und umfasst auch den Zusammenstoß von Planetesimalen von Hunderten von Kilometern Durchmesser. Sowohl in der sehr frühen Phase der Planetenentstehung in protoplanetaren Scheiben als auch in fertig entwickelten Systemen wie unserem Sonnensystem mit seinem Kuiper-Gürtel kommt es stetig zu Kollisionen. Die schiere Menge an Teilchen (allein die Erde könnte man in mehr als 10^(38) mikrometergroße Staubkörner zerlegen) schließt dabei in der Regel aus, alle individuell zu behandeln. Statt dessen betrachtet man ein solches System statistisch mittels des Boltzmannschen Stoßzahlansatzes, d.h. man verfolgt, wieviele Teilchen es gibt und wo, wie oft und mit welchem Ausgang sie kollidieren. Herausfordernd ist dabei auch die Tatsache, dass im selben System sehr unterschiedliche Entwicklungszeitskalen vorliegen können. Zwischen einigen Kollisionen vergehen nur Tage oder Wochen, zwischen anderen Jahrmilliarden.

Lernziele

  • Verteilungsdichte und Phasenraum
  • Kollisionsstatistik: Boltzmannscher Stoßzahlansatz
  • Kollisionsphysik: Wachstum und zerstörerische Kollisionen
  • Größenverteilung im Gleichgewicht: Kontinuum und Randeffekte

Numerische Methoden

  • Diskretisierung (Binning)
  • Integration steifer Differentialgleichungen
  • Programmoptimierung
  • Sprachen: C++/C (empfohlen, aber nicht zwingend)

Versuchsanleitung KO [pdf, 481 kb]

Betreuer: Dr. T. Löhne

Nichtlineare Schrödingergleichung CP Inhalt einblenden

The nonlinear Schrödinger equation (NLS) is among the most prominent equations in nonlinear physics, especially in nonlinear optics [Agrawal, 2001]. It has been studied for more than 40 years, and it is employed in numerous fields well beyond plasma physics and nonlinear optics, where it originally appeared. Gravity waves on deep water follow a NLS equation, a modified NLS equation appears in the theory of superconductivity as Ginzburg-Landau equation, and under certain approximation it can describe the propagation of the so-called Davydov solitons on an a-helix protein (see [Dodd et al., 1982] for details). In the mean-field approximation, the dynamics of Bose-Einstein condensates is described by the Gross-Pitaevskii equation, which is nothing but an extended NLS equation [Dalfovo et al., 1999]. Moreover, the NLS equation with one transverse dimension is integrable by means of the inverse scattering transform. Other nonlinear propagation equations (e.g., the Korteweg-de-Vries equation), may be reduced to the NLS through multi-scale expansions [Zakharov and Kuznetsov, 1986].

Learning objectives

  • nonlinear pulse propagation effects
  • slowly varying envelope approximation (SVEA)
  • bright and dark solitons in the nonlinear Schr¨odinger equation (NLS) equation
  • higher order effects: dispersion, self-steepening, Raman
  • standard numerical methods for NLS-type equation
  • modulational instability (MI)

Numerical methods

  • numerical derivatives
  • finite differences, Euler scheme, Runge-Kutta methods
  • operator splitting
  • Fast Fourier Transformation (FFT)

Manual NLS [pdf, 334 kb]

Betreuer: Dr. C. Etrich

Navier-Stokes-Gleichungen CP Inhalt einblenden

Die Computational Fluid Dynamik (CFD) ist eine wichtige Methode der Strömungsmechanik. Ziel dieser Methode ist das numerische Lösen strömungsmechanischer Probleme. Viele dieser Probleme sind nicht analytisch sondern nur numerisch lösbar. Die Simulation strömungmechanischer Vorgänge ersetzt die oft aufwendigen und kostspieligen Experminete beispielsweise im Windkanal. Innerhalb der Computational Physics kommt der CFD eine wichtige Bedeutung zu. Die Entwicklung der verwendeten Techniken erfolgte nicht zuletzt aufgrund ihrer Notwendigkeit zum Lösen strömungsmechanischer Probleme. Diese Probleme resultieren im Allgemeinen in nichtlinearen, partiellen Differentialgleichungen. Um diese zu lösen, werden spezielle numerische Techniken benötigt. Außerdem sind die Simulationen häufig sehr rechenaufwendig, was den Einsatz moderner Rechentechnik, beispielsweise Computercluster, und moderner Methoden, beispielsweise paralleles Rechnen, erfordert. In diesem Versuch werden wir die laminare Nischenströmung einer inkompressiblen Flüssigkeit simulieren. Dazu werden wir die Navier-Stokes-Gleichungen in zwei Dimensionen numerisch mit Hilfe der Finiten-Differenzen-Technik lösen.

Themen

  • Computational-Fluid-Dynamics
  • inkompressible Navier-Stokes-Gleichungen
  • Finite-Differenzen
  • Donor-Cell-Schema
  • Verschobene Gitter
  • SOR Verfahren
  • Simulation einer Nischenstr¨omung
  • Visualisierung

Versuchsanleitung NSG [pdf, 369 kb]

Betreuerin: S. Renkhoff

Diese Seite teilen
Die Uni Jena in den sozialen Medien:
Ausgezeichnet studieren:
  • Logo der Initiative "Total E-Quality"
  • Logo des Best Practice-Club "Familie in der Hochschule"
  • Logo des Projekts "Partnerhochschule des Spitzensports"
  • Qualitätssiegel der Stiftung Akkreditierungsrat - System akkreditiert
Zurück zum Seitenanfang