Teilnehmerinnen und Teilnehmer

Die Teilnehmerinnen und Teilnehmer des Sächsischen Landeswettbewerbes Jugend forscht 2023 stehen fest. Hier erfahren Sie mehr über ihre Projekte.


Nele Müller (16)

Arbeitswelt (Standnummer 1)

Ein Brillenglas gegen die Weiterentwicklung der Kurzsichtigkeit

Motivation / Ziel:
Ich habe durch meine Mutter von einem Brillenglas erfahren, welches das Fortschreiten der Kurzsichtigkeit ausbremsen soll. Es hat mich interessiert, ob und mit welcher Technologie das funktionieren soll.

Methode:
Ich habe mich intensiv mit dem menschlichen Auge und dessen Entwicklung beschäftigt. Außerdem habe ich mich über die D.I.M.S.-Technologie des innovativen Brillenglases informiert und anonyme Daten von Optikern ausgewertet.

Ergebnisse und wissenschaftlicher Beitrag:
Der Vergleich der Augenentwicklung von Brillenträgern mit und ohne MiYOSMART über einen Zeitraum von einem Jahr hat ergeben, dass die Myopie ohne das spezielle Glas weiterhin stark ansteigt. Hingegen stellte ich wie erhofft fest, dass das Fortschreiten der Kurzsichtigkeit bei den MiYOSMART-Trägern gestoppt oder zumindest verlangsamt wurde.

Herausforderung und weitere Forschungsfragen:
In meiner Arbeit habe ich mich auf eine bestimmte Technologie zur Myopiekontrolle beschränkt. Eine Frage wäre, ob andere vergleichbare Brillengläser ähnlich gute Ergebnisse erzielen können. Ich erhoffe mir einen positiven Mehrwert für das Gesundheitssystem durch die Vermeidung zusätzlicher Risiken von Spätfolgen durch hohe Myopie.


Moritz Theuerkauf (18)

Arbeitswelt (Standnummer 2)

Der Einfluss von Freizeitaktivitäten auf Graphomotorik

Motivation / Ziel:
Im Rahmen meiner Arbeit habe ich die Handschrift von Jugendlichen im Alter von 14 bis 18 Jahren untersucht und mir die Frage gestellt, ob und welche Freizeitaktivitäten eine Auswirkung auf die Handschrift haben. Die Relevanz des Themas besteht darin, dass ein solches Gebiet bisher komplett unerforscht ist und eine mögliche Therapiemethode für ADH/S-Patienten gefunden werden könnte. Die Graphomotorik von erkrankten Personen ist aufgrund mangelnder Handlungskontrolle beeinträchtigt, weshalb eine Graphomotorik- fördernde Freizeitaktivität die Symptome möglicherweise lindern könnte, und ein sinnvoller Therapieansatz wäre.

Methode:
Für die Datenaufnahme habe ich knapp dreißig Probanden aus meinem Bekanntenkreis rekrutiert. Den Jugendlichen wurde dann ein eigens erstellter Fragebogen ausgehändigt, der alle gängigen Freizeitaktivitäten abfragt und kategorisiert. Dazu zählen beispielsweise instrumentale Fähigkeiten, malen und zeichnen oder auch das Spielen von Computerspielen. Im Anschluss bewerkstelligten die Probanden einen etwa 20-minütigen Test an einem Graphiktablett. Der NIV, die Schreibfrequenz und der Schreibdruck wurden in CSWin aufgenommen und anschließend statistisch auf signifikante Unterschiede sowie temporale Korrelationen überprüft.

Ergebnisse und wissenschaftlicher Beitrag:
Schlussendlich konnte ich herausfinden, dass sportlich aktive Probanden in einem Teil der Analyse eine höhere Schreibfrequenz aufweisen, was für eine erhöhte Handlungskontrolle spricht. Viel bedeutendere Ergebnisse sind jedoch, dass sich das Spielen von Computerspielen negativ auf die Graphomotorik eines Jugendlichen auswirkt. Meine Studie ist in diesem Themengebiet der Freizeitaktivitäten nicht nur die erste, sondern stellt auch mit den negativen Befunden bezüglich des Computerspielens den oft positiv ausfallenden Studien über Videospiele etwas entgegen.

Herausforderungen und weitere Forschungsfragen:
Eine Schwierigkeit des Projekts war das Überschneiden mehrerer Freizeitaktivitäten bei Probanden, was jedoch statistisch kontrolliert werden konnte. Hier wäre eine größere Stichprobe mit Personen, die jeweils nur eine Freizeitaktivität ausüben, definitiv von Vorteil, da man dann auch quantitative Aussagen treffen kann. Weitere Forschungsfragen haben sich insofern ergeben, dass die Studie auch mit ADH/S- Patienten durchgeführt werden sollte, um eine mögliche Therapiemethode zu finden. Dies war mir jedoch nicht möglich, da ich als Schüler nicht mit erkrankten Patienten arbeiten darf.


Elisabeth Brauer (18)

Biologie (Standnummer 3)

Immunbiomarker im Speiseröhrenkrebs

Motivation / Ziel:
Ich habe an dem Oberflächenprotein PD-L1 geforscht. Ich wollte herausfinden, welche Rolle dieses Protein und weitere immunassoziierte Proteine im Barrett-Ösophagus Karzinom spielen. Dadurch könnten sich weitere Therapieoptionen ergeben, um die Krebsart zu behandeln.

Methode:
Ich habe verschiedene molekularbiologische Methoden zur Bestimmung der Expression von PD-L1 genutzt, hauptsächlich die qPCR und die FACS-Analyse. Dafür war ich über 3 Jahre hinweg immer wieder in den Schulferien im Labor der Uniklinik in Leipzig.

Ergebnisse und wissenschaftlicher Beitrag:
Mttels qPCR konnte die Expression von PD-L1 an Zellkulturen des Barrett-Ösophagus Karzinoms sowie verschiedenen Vorstufen in unterschiedlicher Höhe nachgewiesen werden. PD-L1 ist also auch ein wichtiges Schlüsselmolekül im Barrett-Ösophagus Karzinom. Da PD-L1 häufig unterschiedlich exprimiert wird, sollte in zukünftigen Studien auch auf veränderte PD-L1-Spiegel unter Therapie geachtet werden.
Ich konnte eine Beeinträchtigung von PD-L1 durch konventionelle Chemotherapeutika im Barrett-Ösophaus Karzinom zeigen. Eventuell ist das ein Schutzmechanismus der Krebszellen gegen die Behandlung mit den Chemotherapeutika.

Herausforderungen und weitere Forschungsfragen:
Es war herausfordernd, die Zeit neben der Schule zu finden, mehrere Wochen am Stück Vollzeit im Labor zu verbringen, um meine Analysen durchzuführen. Ein einziges Experiment dauert schließlich mindestens eine Woche. Es sind aber Minimum 3 Durchläufe notwendig, um ein valides Ergebnis zu erzielen.
Interessant wäre, das Verhalten der Zellen nach einem „Knockdown“ von PD-L1 zu untersuchen, die Verringerung der Zellviabilität nach einer Kombination der verschiedenen Therapieoptionen sowie die Untersuchung der PD-L1 Expression nach einer länger zurückliegenden Chemotherapiebehandlung.


Nathalie Dorn (17)

Biologie (Standnummer 4)

Zelltherapie gegen Leukämie mit mRNA

Motivation / Ziel:
Die CAR-T-Zelltherapie ist ein neuartiger vielversprechender Ansatz in der Krebsforschung. Bei der CAR-T-Zelltherapie werden körpereigene Abwehrzellen eines Patienten mit Erbinformation so modifiziert, dass sie einen speziellen Rezeptor tragen, der an Oberflächenproteine der Krebszellen bindet, diese so erkennt und eliminiert. Diese Therapie wird bereits für eine Unterform der Leukämie ALL angewandt, daher könnte sie auch für die Unterform AML ein vielversprechender Ansatz sein. In meiner Arbeit untersuche ich, ob man diesen Ansatz auf die Unterform der Leukämie AML anwenden kann.

Methode:
Innerhalb einer zweiwöchigen Arbeit im Fraunhofer Institut habe ich überprüft, ob sich Zellen durch RNA so modifizieren lassen, dass sie den Rezeptor gegen das Oberflächenprotein der AML-Krebszellen auf ihrer Oberfläche tragen. Dazu habe ich in die Modellzelllinie der HEK-Zellen die RNA für den CAR-Rezeptor eingebracht und überprüft, ob und wie gut die Zellen den Rezeptor gegen das Krebsoberflächenprotein ausprägen. Verglichen habe ich diese Ausprägung mit dem Rezeptor gegen ALL-Krebszellen, der für eine CAR-T-Zelltherapie bereits zugelassen ist.

Ergebnisse und wissenschaftlicher Beitrag:
Der Rezeptor, der sich gegen die Krebszellen der AML richtet, wurde auf den Zellen mehr als doppelt so stark ausgeprägt wie der Rezeptor für die Therapie der ALL. Je mehr Rezeptoren auf der Oberfläche der Zellen ausgeprägt werden, desto mehr Krebszellen können effektiv gebunden und eliminiert werden und desto vielversprechender ist die Krebstherapie. Da der Rezeptor für die AML- Therapie effektiver ausgeprägt wird als der für die bereits entwickelte ALL-Therapie, erweist sich die CAR-T-Zelltherapie für AML als ein anwendbarer Therapieansatz.

Herausforderungen und weitere Forschungsfragen:
Eine besondere Herausforderung meiner Methode war die Arbeit mit RNA. Diese ist als Einzelstrang sehr instabil und kann durch Enzyme in Staub (RNasen) leicht abgebaut werden. Es durfte also innerhalb der zwei Wochen kein Staub in die Proben gelangen sonst wäre der Arbeitsfortschritt nichtig gewesen und ich hätte von vorn beginnen müssen. Weitere Forschung wäre in jedem Fall notwendig für die Überprüfung der Ausprägung des Rezeptors in T-Zellen ebenso wie die Forschung für die Anwendbarkeit der CAR-T-Zelltherapie für andere Krebserkrankungen.


Konstantin Kluba (17)

Biologie (Standnummer 5)

Natürliche Konservierungsstoffe

Motivation / Ziel:
Im Rahmen fächerverbindenden Vertiefungsmöglichkeiten an meiner Schule habe ich mich mit dem Ziel beschäftigt, ein 100% nachhaltiges Waschmittel zu erschaffen. Dabei kam ich schnell zu der Erkenntnis, dass es bereits viele Biotenside gibt. Jedoch fand ich keine biologische Alternative für das Konservierungsmittel. Durch vorherige Projekte war ich mit dem Hopfen, und dessen Wirkstoffen bekannt, und habe mich deshalb gefragt ob Hopfenextrakt nicht als Alternative geeignet ist. Somit war eine qualitative Analyse über das Konservierungspotential von Hopfenextrakt das Ziel meiner Arbeit.

Methode:
Zur Untersuchung meiner Fragestellung habe ich eine Extraktion von Hopfenextrakt mit einer Rückflusskühlung durchgeführt. Außerdem habe ich ein Tensid durch die Verseifung von Rapsöl mit Natriumhydroxid gewonnen. Zur Untersuchung des Konservierungspotentials habe ich verschiedene behandelte Nährböden mit fluoreszierenden Bakterien als Bioindikator mikrobiologisch getestet. Bei der mikrobiologischen Testung habe ich die Nährböden mit dem 3-Ösen-Ausstrich beimpft. Anschließend habe ich die verschiedenen Kulturen fotografiert und ausgewertet.

Ergebnisse und wissenschaftlicher Beitrag:
Meine Arbeit untermauert, dass Hopfenextrakt potentiell konservierend wirkt. Außerdem zeigt es erstmalig auch explizit die Wirkung von Hopfenextrakt gegen grammnegative Bakterien in einer Tensid-Lösung auf. Damit ist es eine erste qualitative Analyse, die den Bereich von Hopfenextrakt in Verbrauchsprodukten unterstützt. Meine Forschung zeigt diese Möglichkeit auf und kann auf viele andere Bereiche angewandt werden.

Herausforderungen und weitere Forschungsfragen:
Insbesondere während meiner mikrobiologischen Untersuchung kam es zu Intraobserver-Fehlern. Diese äußerten sich insbesondere in dem 3-Ösen-Ausstrich. Da ich noch Schüler bin, sind diese wahrscheinlich auch zu erwarten. Diese Fehler zeigten im Rahmen der Vorversuchsreihe Verbesserungen der Methodik auf.
Meine Arbeit eröffnet viele weitere Forschungsfragen. Die grundlegendste Fragestellung ist, welcher Bestandteil die konservierende Wirkung ausmacht. Auch wäre es wichtig zu klären, ob man auch aus Bierbraurückständen diesen Stoff gewinnen kann, um eine Kreislaufwirtschaft zu ermöglichen.


Milena Below (18)

Geo- und Raumwissenschaften (Standnummer 6)

Umweltauswirkungen von Freiflächen-Photovoltaik

Motivation / Ziel:
Mit der Energiewende, also dem Ausbau erneuerbarer Energien wächst auch die Kritik an erneuerbaren Energieträgern, dass diese in z.B. Herstellung nicht umweltfreundlicher als konventionelle Energieträger wären. Das ganze wird weiter verstärkt mit dem allgemein steigenden Strombedarf durch e-Mobilität/H-Elektrolyse. Mit dieser Kritik habe ich mich in meiner Arbeit auseinandergesetzt und diese anhand an einer Technologie untersucht. So habe ich mir die Frage gestellt: Ist die Kritik an erneuerbaren Energieträgern wie Freiflächen-Photovoltaikanlagen angebracht? Verursacht die Nutzung von Freiflächen-PV ökologische Zielkonflikte?

Methode:
Meine These habe ich mithilfe eines Life-Cycle-Assessments bzw. einer Lebenszyklus-Analyse untersucht, also eine Datenanalyse und -auswertung durchgeführt. In diesem Schritt habe ich das „Leben“ eines PV-Moduls anhand von Daten rekonstruiert und untersucht, in welcher Lebensstufe von Herstellung, über Transport und Nutzung bis hin zum Recycling, Primärenergie verbraucht bzw. Treibhausgase emittiert werden.

Ergebnisse und wissenschaftlicher Beitrag:
Die Lebenszyklus-Analyse ergab einen erstaunlich positiven Ausgang. Das PV-Modul hat bereits nach unter zwei Jahren die Menge an Energie selbst bereitgestellt, die über die ganze Lebenszeit des Moduls benötigt würde. Bei einer Laufzeit von über 20 Jahren ist das ein sehr gutes Ergebnis. Der Großteil der Emissionen kommt durch die Herstellung zustande, dort müsste also weiterhin eingespart werden. Problematisch könnte der Flächenverbrauch werden, was weitere Forschungen z.B. zum Thema Agri-PV erfordern wird.

Herausforderungen und weitere Forschungsfragen:
Die Datenbeschaffung gestaltete sich teils schwierig, weil oftmals veraltete oder nicht nachvollziehbare Daten im Internet vorhanden waren. Weiterhin wurden während der Analyse viele Annahmen getroffen, z.B. beim Transport, die sehr allgemein gehalten sind. Dort gibt es die Möglichkeit, detaillierter vorzugehen, jedoch war es in dieser Arbeit das vorrangige Ziel, einen allgemeinen Überblick zu verschaffen und nicht jedes Detail zu betrachten. An diesen Überblick könnte man nun mit passenden Daten detaillierter ansetzen und konkretere Fragen beantworten.


Kai Richard Probst (16)

Geo- und Raumwissenschaften (Standnummer 7)

Anomalien im Erdmagnetfeld

Motivation / Ziel:
Ich habe mich mit der Beeinflussung der Horizontalkomponente des Erdmagnetfeldes durch lokale geologische Gegebenheiten beschäftigt. Die Idee dafür entwickelte ich während meines Praktikums im Hochfeld-Magnetlabor des HZDR. Ziel meiner Arbeit ist, magnetische Anomalien aufzuspüren, die einen Hinweis auf Erzvorkommen liefern. Zusätzlich legte ich Wert darauf, dass diese Messungen auch in schwierigem Gelände, wie z.B. im Hochgebirge durchgeführt werden können und außerdem sehr kostengünstig sind.

Methode:
Um diesem Anspruch gerecht zu werden, musste ich eine Messmethode entwickeln, die mit wenig und leichter Ausrüstung auskommt. Die Ergebnisse müssen genau und reproduzierbar sein. Dafür benötige ich ein Handy, ein Stativ mit Wasserwaagen, ein Geodreieck und eine 8m lange Schnur. Mittels der gespannten Schnur und GPS-Daten kann die geografische Himmelsrichtung bestimmt werden. Das im Stativ eingespannte Handy muss mittels der Wasserwagen horizontal und mit dem Geodreieck zum geografischen Nordpol ausgerichtet werden. Die Magnetfelddaten werden mit der Physik-App „phyphox” aufgezeichnet.

Ergebnisse und wissenschaftlicher Beitrag:
Durch meine Messungen im Ötztal konnte ich neben einer bekannten auch eine unbekannte, nicht kartierte Anomalie messen. Es ist mir gelungen, mittels geologischer Daten diesen Anomalien ein Amphibolit- vorkommen zuzuordnen. Zusätzlich konnte ich durch die chemische Analyse einer Gesteinsprobe einen hohen Eisengehalt nachweisen. Mittels der Anomalien im Erdmagnetfeld konnten also Erzlagerstäten ohne großen Aufwand nachgewiesen werden. Außerdem kann eine magnetische Kartierung im unwegsamen Gelände durchgeführt werden. Diese könnten Wanderer nutzen, um die Orientierung mit dem Kompass zu korrigieren.

Herausforderungen und weitere Forschungsfragen:
Neben der Entwicklung der Messmethode stellte sich die Datenauswertung anfänglich als schwierig heraus. Erst eine intensive Fehlerbetrachtung und die Korrektur der ermittelten systematischen Fehler, ermöglichte eine sinnvolle Auswertung der Messergebnisse. Es stellte sich heraus, dass besonders die Nullpunktsabweichung der Hallsensoren im Handy korrigiert werden mussten. Interessant ist es, zusätzlich noch die z-Komponente des Erdmagnetfeldes zu kartieren. Gesteinsproben können z.B. mit einem Vibrationsmagnetometer untersucht werden, um die Datenlage zu verbessern.


Henning Beyer (19)

Mathematik/Informatik (Standnummer 8)

Einsatz effektiverer Transformer-Encoder

Motivation / Ziel:
Das Forschungsthema, welches ich untersucht habe, ist recht breit gefächert und beinhaltet die Bereiche der natürlichen Sprachverarbeitung (NLP) und der Open Information Extraction (OIE). Konkret handelt meine Forschung dabei vom Austausch des BERT-Encoders im KI-Modell namens DetIE, um dessen Leistung zu steigern.
Besonders lag die Motivation hierbei darin, sich selbstständig einem komplexen Forschungsthema anzunehmen und nach einigen Herausforderungen zugleich sehr relevante Ergebnisse für die fortwährende Forschung zu erzielen.

Methode:
Über einen Rechen-Server der Universität Leipzig konnte ich den Encoder-Austausch innerhalb der großen Transformer-Modell-Struktur durchführen und nach jeweils 5 Messreihen Leistungsverbesserungen für die sprachlich besser vortrainierten Encoder RoBERTa und ELECTRA nachweisen. Zuvor musste ich mir die umfangreiche Theorie aller Modelle wie den Transformern, den BERT-Varianten sowie dem DetIE-Modell alleinig über deren Forschungsberichte aneignen und anhand der Theorie die verwendete Experimentierumgebung des DetIE-Modells für den Encoder-Austausch sorgfältig anpassen.

Ergebnisse und wissenschaftlicher Beitrag:
Insgesamt können relevante Verbesserungen von bis zu 1,1 F1- und 1,3 AUC-Punkten mit dem ELECTRA-Encoder erzielt werden, ohne die Extraktionsgeschwindigkeit des DetIE-Modells zu verlangsamen und sogar ohne das Hinzufügen neuer komplexer Zusatzmechanismen. Somit können alle Leistungsverbesserungen auch in zukünftigen Modellen der weiteren OIE-Forschung angewendet werden.
Neben diesen Ergebnissen besitzt die Forschungsarbeit auch theoretische Relevanz, indem die Theorien der Encoder BERT, RoBERTa, ELECTRA, DeBERTa und DeBERTaV3 zusammengefasst wurden. Zudem erlauben ermittelte Verbesserungskriterien die erleichterte Anwendung der Forschungsergebnisse.

Herausforderungen und weitere Forschungsfragen:
Vor allem die langzeitliche Planung bei einer umfangreichen Theorie und häufigen Rückschlägen erwiesen sich als ständige Herausforderung. Einzelne Konzepte mussten mehrfach überarbeitet und mehrere Messreihen erneut aufgenommen werden. Am Ende der Experimente stellen sich die DeBERTa-Encoder als nicht anwendbar heraus. Aber gerade hieraus ergibt sich eine neue Forschungsaufgabe, die einer neuen Forschungsarbeit bedarf: DeBERTa-Encoder mit absoluten sowie relativen Wortpositionsdaten könnten nicht nur das Sprachverständnis für das NLP verbessern, sondern auch in der OIE zu weiteren Verbesserungen führen.


Alexander Lowa (18) / Richard Voigtmann (19)

Mathematik/Informatik (Standnummer 9)

Falschinformationen erkennen mithilfe von KI

Motivation / Ziel:
In dieser Arbeit haben wir eine auf künstlichen neuronalen Netzwerken basierende Textklassifizierungsmethode entwickelt, die Falschmeldungen, Gerüchte, Sarkasmus und andere Formen von unerwünschtem oder ungenauem Inhalt in den sozialen Medien erkennen kann und mithilfe von verständlichen Erklärungen widerlegt.

Methode:
Durch die Verwendung eines eigens entwickelten hyperbolischen Co-Attention-Mechanismuses und einer fortschrittlichen Graphenrepräsentation der öffentlichen Haltungen, haben wir es geschafft, SOTA (State-Of-The-Art) Leistungen zu erreichen und auf 9 anerkannten Datensätzen als weltweit führende Methode zu gelten. Neben den oben genannten Mechanismen haben wir auch weitere NLP (Natural Language Processing) und DL (Deep Learning) Verfahren verwendet, um die Qualität unseres Verfahrens zu verbessern.

Ergebnisse und wissenschaftlicher Beitrag:
Um die Leistung unserer Methode zu evaluieren, haben wir sie gegen verschiedene andere Modelle wie TCNN-URG, HPA-BLSTM, CSI, HAN, BERT, dEFEND und RoBERTa auf den 9 von uns vorbereiteten Datensätzen getestet. Im direkten Vergleich erzielt unsere Methode eine eindeutige Leistungssteigerung von bis zu 40% auf allen Datensätzen. Daraus lässt sich schlussfolgern, dass unsere Methode als vielversprechende Lösung zur Textklassifizierung beziehungsweise für die Identifizierung von Falschinformation in sozialen Medien angesehen werden kann.

Herausforderungen und weitere Forschungsfragen:
Bis auf den Fakt, dass das Training der Modelle relativ kostspielig war, lieft das Projekt reibungslos ab. In Zukunft wollen wir unsere errungenen Erkenntnisse in Perspektive auf den hyperbolischen Raum und Textklassifizierungprobleme auf generelle Sprachmodelle übertragen. In der Arbeit „Curvature Is All You Need: Enhancing Efficiency and Robustness of Language Models through Non-Euclidean Geometry“ beschreiben wir die Entwicklung einer neuartigen BERT Variante, welche die Vorteile der hyperbolischen Geometrie auf generelle NLP Probleme überträgt.


Alexander Benedix (18)

Mathematik/Informatik (Standnummer 10)

Integration über sphärische Dreiecke

Motivation / Ziel:
Ich habe erforscht wie man über sphärische Dreiecke numerisch optimal integrieren kann. Die Motivation ist meine immense Faszination für höhere Mathematik. Bei Jugend forscht ist oft die Frage nach der Praxis bedeutsam. Ich habe mir also einen Anwendungsfall gesucht, bei dem Integration über sphärische Dreiecke von eminenter Bedeutung ist und es mir zum Ziel gemacht, ein Python Programm zu entwickeln, welches genau die Aufgabe erfüllt.

Methode:
1. Grundlagen der Mathematik erlernen: Als Grundlage für meine Arbeit habe ich zunächst die Inhalte der Analysis 1 & 2, Algebra 1 und Numerik 1 des Mathematikstudiums gelernt.
2. Theorie zur Integration über sphärische Dreiecke verstehen: Die Theorie meiner Arbeit liefert zum größten Teil die Dissertation von Judith Beckmann und die darin zitierten Artikel, welche zu Verstehen der anspruchsvollste Part meiner Arbeit war.
3. Python Implementierung schreiben.

Ergebnisse und wissenschaftlicher Beitrag:
Herausgefunden: Wie man über ein sphärisches Dreieck optimal integriert.
Ergebnisse: Eine funktionierende open source Python-Implementierung, welche in der Lage ist, Vektorfelder über sphärische Dreiecke zu integrieren. Für Kugelflächenfunktionen ist mein Programm sogar auf Maschinengenauigkeit exakt.
Wis. Beitrag: Die Python-Implementierung steht auf GitLab zur Nutzung zur Verfügung und kann von Mathematikern, die sich weiter mit dem Problem beschäftigen genutzt werden, ohne auf kommerzielle Software zurückgreifen zu müssen.

Herausforderungen und weitere Forschungsfragen:
Besondere Herausforderungen: Diskrepanzen und kleinere Fehler der Dissertion von Judith Beckmann (die ich zum Glück korrigieren konnte) haben meine Arbeit deutlich erschwert. Fast hätten diese Komplikationen dafür gesorgt, dass ich nicht rechtzeitig mit dem Projekt fertig geworden wäre.
Weitere Forschungsfragen: Wie man das Verfahren für beliebige Quadraturknoten nutzen kann.


Jakob Weber (18)

Physik (Standnummer 11)

Zusammenhang zwischen Form und Auftrieb eines Propellers

Motivation / Ziel:
Das Fliegen einer Kameradrohne übt auf mich immer wieder eine große Faszination aus. Unbekannte Perspektiven – Landschaften von oben – werden sichtbar. Doch was sind die physikalischen Ursachen des Auftriebs einer Drohne? Wie kann ich den Auftrieb eines Propellers durch seine Form beeinflussen? Diese Fragen sollen durch meine Arbeit beantwortet werden. Ich habe erforscht, wie sich die Neigung der Rotorbläter eines Propellers (der sog. Einstellwinkel) auf dessen erzeugte Auftriebskraft auswirkt.

Methode:
Nach meiner Recherche zu den Grundlagen der Strömungslehre und zu den Entstehungsursachen des Auftriebs am Propeller, habe ich mitels 3D-Druck verschieden Propeller erstellt. Diese unterscheiden sich nur in der Neigung ihrer Rotorbläter, dem sog. Einstellwinkel, voneinander. Am Versuchsaufbau eines selbst entwickelten Experiments, konnten die Auftriebskräfte der Propeller bei verschieden Drehzahlen gemessen werden. Die entstehenden Diagramme wurden im Anschluss ausgewertet. Sie bestätigten die vor dem Versuch aufgestellten Thesen, die sich aus der Theorie zum Thema ableiten ließen.

Ergebnisse und wissenschaftlicher Beitrag:
Der Einstellwinkel hat eine große Auswirkung auf die Auftriebsentstehung am Propeller. Erhöht man den Einstellwinkel von 0°, erhöht sich auch die Auftriebskraft. Nach einem Maximum lässt die Auftriebskraft durch einen Strömungsabriss, einer Verwirbelung von Luft am Propeller, nach. Zusätzlich konnten Effekte, wie z.B. die Wirkung der Drehzahl auf den Auftrieb und der sog. Bernoulli-Effekt dargestellt werden. Diese Arbeit überprüft einen Teil des bestehenden Wissensstandes zum Thema, das in Zukunft z.B. bei der Auslieferung von Paketen per Drohne immer wichtiger wird.

Herausforderungen und weitere Forschungsfragen:
Das Finden der passenden Propellergröße verlief nach der Versuch-Irrtum-Methode. Die zuerst gedruckten Propeller haten einen zu geringen Durchmesser und erzeugten eine kaum messbare Auftriebskraft. Eine größere Variante ergab bessere Ergebnisse.
Das Ergründen und Darstellen passender Abhängigkeiten aus den Daten waren ebenfalls herausfordernd, aber so auch lehrreich. Zukünftig ist es sinnvoll, einen weiteren Parameter des Propellers (z.B. die Länge des Rotorblats) in Bezug auf seinen Einfluss auf den Auftrieb zu betrachten, um ein umfassenderes Bild der Auftriebskraft am Propeller zu gewinnen.


Katharina Gudat (18)

Physik (Standnummer 12)

Strömungen messen mit Magnetfeldern

Motivation / Ziel:
Ich habe eine Messmethode erforscht, mit der man mit Magnetfeldern Flüssigmetallströmungen messen kann. Durch die Bewegung des flüssigen Metalls werden über Induktion messbare Sekundärfelder erzeugt. Diese Messtechnik habe ich auf ein Experiment angewendet, in dem die Legierung Gallium-Indium-Zinn von unten erhitzt und von oben gekühlt wird. Die entstehende Strömung heißt Rayleigh-Bénard-Konvektion und tritt so ähnlich auch auf der Sonne auf. In meinem Projekt habe ich erstmalig zwei Anregungsmagnetfelder an diesem Experiment verwendet, mit dem Ziel, die Genauigkeit des Verfahrens zu verbessern.

Methode:
Nach dem Messen am Experiment habe ich mich mit der Datenauswertung beschäftigt, um in den Daten die Sekundärmagnetfelder vom Hintergrund der Anregungsfeldern zu trennen. Dafür habe ich einen Python-Algorithmus geschrieben. Nach ersten Erfolgen habe ich weitere Experimente an einem vereinfachten Aufbau durchgeführt, um die zeitliche Auflösung der Methode zu erhöhen. Die auf Basis der Daten rekonstruierten Strömungen habe ich außerdem analysiert und mit ähnlichen Messungen mit nur einem Anregungsfeld verglichen.

Ergebnisse und wissenschaftlicher Beitrag:
Durch mein Projekt wurde die Verwendung zweier Anregungsmagnetfelder mit CIFT (Contactless Inductive Flow Tomography), der Messmethode, die ich weiterentwickelt habe, möglich. Die automatische Auswertung ist zu mehr als 90 Prozent korrekt und zeitliche Auflösungen bis zu 2 Sekunden konnten erreicht werden. Die Messmethode wurde dadurch maßgeblich verbessert. Nützlich ist das Verfahren neben Messungen in der Grundlagenforschung auch in der Industrie, etwa beim Stranggießen von Stahl oder beim Gießen (?) von Halbleiterkristallen.

Herausforderungen und weitere Forschungsfragen:
Die größte Herausforderung bei den Messungen war der extrem hohe Dynamikbereich von 5 bis 6 Größenordnungen zwischen dem Anregungsfeld und den Sekundärfeldern. Anschaulich ist die Messung der Sekundärfelder also so, als würde man bei einem Rockkonzert eine Stecknadel fallen hören wollen. Außerdem hat sich bei der Auswertung herausgestellt, dass einige Sensoren fehlerhaft vom Algorithmus behandelt werden. Das liegt daran, dass nicht alle Sensoren exakt zeitsynchron messen. Um diese Probleme zu umgehen, arbeite ich momentan an einem neuen Algorithmus zur Datenauswertung.


Hiskia Barthel (18)

Chemie (Standnummer 13)

Katalysatoren aus Mischmetalloxiden

Motivation / Ziel:
In meiner Arbeit habe ich die Stabilität von Mischmetalloxidkatalysatoren für die Kohlenstoffmonoxid- OxidaPonskatalyse unter feuchten Bedingungen untersucht. Bei der katalysierten Reaktion wird das giftige CO zu CO2 oxidiert. Die Mischmetalloxidkatalysatoren stellen eine kostengünstige Alternative zu herkömmlichen Edelmetallkatalysatoren dar, werden jedoch schnell durch Wasser deaktiviert. Da diese jedoch zum Beispiel in Atemschutzmasken eingesetzt werden, ist eine hohe Feuchtestabilität notwenig. Ziel der Arbeit war es Zusammenhänge zwischen den Eigenschaften und der Aktivität der Mischmetalloxidatalysatoren herzustellen und Katalysatoren mit einer hohen Feuchtestabilität zu identifizieren.

Methode:
Mithilfe der Flammsprühpyrolyse habe ich vier Mischmetalloxidkatalysatoren, jeweils zwei CuMn- und CoMn-Mischmetalloxide, hergestellt. Dafür nutze ich selbst synthetisierte Präkursoren aus Cu-, Mn- und Co-Komplexen mit Ethylhexanoat (EH) bzw. Benzoat (BA) als organischen Anteil. Durch Untersuchungen mittels Röntgendiffraktometrie, Stickstoff- und Wasserphysisorption, Elektronenmikroskopie sowie
Elementaranalyse konnte ich die Mischmetalloxidkatalysatoren charakterisieren. Weitere experimentelle Untersuchungen unter trockenen und feuchten Bedingungen zeigten die Aktivität der Katalysatoren hinsichtlich der Entfernung des Kohlenstoffmonoxid aus der Luft, sodass ich Zusammenhänge zwischen Eigenschaften und Feuchtestabilität der Katalysatoren ziehen konnte.

Ergebnisse und wissenschaftlicher Beitrag:
Unter trockenen Bedingungen hat die Zusammensetzung der Metalle des Mischoxides auf die Aktivität der Katalysatoren einen größeren Einfluss als die organischen Komponenten des Präkursors. So weisen beide CoMn-Mischmetalloxidkatalysatoren eine höhere Aktivität als die CuMn-Mischmetalloxidkatalysatoren auf. Unter feuchten Bedingungen dagegen ist der Einfluss der organischen Komponente des Präkursors bedeutender als die metallische Zusammensetzung der Mischoxide. Es zeigen die EH-Katalysatoren eine höhere katalytische Aktivität unter feuchten Bedingungen und somit eine höhere Feuchtestabilität als die mit BA-Komplexen hergestellten Katalysatoren.

Herausforderungen und weitere Forschungsfragen:
Das die EH-haltigen Katalysatoren eine erhöhte Feuchtestabilität gegenüber den BA-haltigen Katalysatoren aufweisen, steht im Widerspruch mit vorherigen Forschungen. Diese Abweichung liegt vermutlich an einer Verunreinigung bei der Präkursorsynthese. Um diese fehlerresistenter zu gestalten, ist ein Syntheseweg über eine Festkörperroute anstelle der genutzten lösungsbasierten Synthese möglich, die in folgenden Forschungen untersucht werden sollte.


Franka Bauer (18)

Technik (Standnummer 14)

Parameterstudie zu einem Schmelzschichtverfahren

Motivation / Ziel:
Viele Verfahren zur Herstellung von Metallobjekten sind teuer, verbrauchen viel Material, sind nur für Serienproduktion geeignet oder setzen aufwendige Sicherheitsmaßnahmen voraus. Ein neues Verfahren ist Metal Fused Filament Fabrication, kurz mFFF. Dieses Verfahren bietet viele Vorteile, da es weniger kostenintensiv ist und kaum unnötiges Material verbraucht wird. Vor allem in Bereichen der Raumfahrt und Medizintechnik hat mFFF also großes Potenzial. Durch den geringen Materialverbrauch ist Metal Fused Filament zudem nachhaltiger. Mein Ziel war es, die Qualität der Bauteile zu verbessern.

Methode:
Zur Verbesserung der Bauteile wollte ich die Druckqualität maximieren und die relative Dichte der Bauteile im Vergleich zum Ausgangsmaterial ermitteln. Der Druck findet mit einem handelsüblichen 3D-Drucker statt. In einer Software namens Slicer stellt man die gewünschten Parameter ein, z.B. die Schichthöhe oder Druckgeschwindigkeit. Ein wichtiger Bestandteil meiner Arbeit war das Finden von optimalen Parametern. Außerdem habe ich analysiert, welche Probleme am Drucker aufgrund der besonderen Materialeigenschaften auftreten. Diese habe ich behoben, indem ich Teile des Druckers ersetzt habe.

Ergebnisse und wissenschaftlicher Beitrag:
Die Druckqualität konnte ich maßgeblich verbessern und eine maximale relative Bauteildichte im Vergleich mit dem Ausgangsmaterial von über 99,7% ermitteln. Zudem habe ich verschiedene Änderungen am 3D-Drucker durchgeführt und konnte damit viele Probleme beheben. Meine Ergebnisse zeigen, dass trotz der besonderen Materialeigenschaften ein erfolgreicher Druck mit einem handelsüblichen 3D-Drucker möglich ist. Da es noch wenig Forschung zu diesem Verfahren gibt, stellen meine Ergebnisse einen wichtigen Schritt dar. Durch weitere Optimierung des Verfahrens wird die Herstellung von Metallobjekten preiswerter und nachhaltiger.

Herausforderungen und weitere Forschungsfragen:
Ein Problem war die Zusammensetzung des Materials. Diese bestimmt die Druckeigenschaften und wird von den Herstellen aber nicht genau angegeben. Dadurch konnte ich mich nicht wirklich an anderen Arbeiten orientieren, da in diesen mit Materialien anderer Hersteller gearbeitet wurde. Hier wäre eine Ausweitung der Parameterstudie auf andere Materialien interessant. Wenn man Zusammenhänge zwischen der Zusammensetzung des Materials und den Druckeigenschaften findet, dann sind Vorhersagen über das Druckverhalten von neuen Materialen und eine Optimierung der Materialien für einen einfacheren Druck möglich.


Victoria Siebler (18)

Technik (Standnummer 15)

Belastungstest eines mobilen Hochwasserschutzsystems

Motivation / Ziel:
Mobiler Hochwasserschutz hat sich als ein effizientes und flexibel einsetzbares Mittel zur Eindämmung der Gefahren und Schäden durch Hochwasser erwiesen und ist deshalb Gegenstand aktueller Forschung. Die entscheidende Frage dabei lautet, ab wann ein mobiles Schutzsystem überhaupt sicher ist. Das habe ich in mehreren Versuchen an einem Polypropylenprototypen untersucht. 
Die Weiterentwicklung mobiler Systeme ist von großer Bedeutung für das zukünftige Risikomanagement von Hochwassergefahren, denn Beispiele wie das schwer betroffene Ahrtal zeigen die Dringlichkeit des Ausbaus zuverlässiger Schutzmaßnahmen.

Methode:
Im Hochwasserfall treten am Bauteil statische Lasten durch das Stauwasser und dynamische Lasten durch den Anprall von Gegenständen wie bspw. Bäumen auf. In einem Druckversuch wurde die statische Belastung am Prototypen simuliert. Die aufgetretene Bauteilverformung wurde mit einem Stereokamerasystem aufgenommen und anschließend mit Hilfe einer 3D-Bildkorrelationssoftware ausgewertet. Maßgebend für die Einsetzbarkeit ist die Erfüllung eines vorgeschriebenen Verformungskriteriums. Für die Untersuchung des Verhaltens unter dynamischer Belastung wurden kleinere Polypropylenprüfkörper verwendet.  Im Zugversuch wurden diese Prüfkörper mit verschiedenen Geschwindigkeiten gedehnt.

Ergebnisse und wissenschaftlicher Beitrag:
Der Druckversuch zeigte eine symmetrische Verformung des Prototyps. Das vorgeschriebene Verformungskriterium wurde bis zur ermittelten Belastungsgrenze von 6 kN erfüllt, was einer Stauhöhe von gerade einmal 40 cm entspricht. Darüber hinaus darf der Prototyp nicht zum Hochwasserschutz eingesetzt werden. Außerdem waren Materialermüdungseffekte messbar. Im Zugversuch zeigte sich, dass Polypropylen aufgrund seiner besonderen Materialeigenschaften weitaus höheren dynamischen als statischen Belastungen standhält. Gesteigerte Materialresilienz senkt das Risiko für ein Gesamtversagen bei Treibgutanprall und erhöht die Sicherheit des Schutzsystems.

Herausforderungen und weitere Forschungsfragen:
Materialermüdungseffekte treten prinzipiell unerwünscht auf, da sie die zulässige Einsatzdauer des Schutzsystems senken. Daraus ergibt sich die Notwendigkeit, weitere Werkstoffe zu untersuchen und die Bauteilgeometrie des Prototyps zu optimieren.