Physikalische Technik, Informatik
Refine
Year of publication
Document Type
- Diploma Thesis (837)
- Bachelor Thesis (703)
- Master's Thesis (390)
- Article (62)
- Part of a Book (28)
- Book (7)
- Report (4)
- Preprint (2)
- Working Paper (2)
- Other (1)
Institute
Conductance quantization in memristive devices with electrodeposited Prussian blue-based dielectrics
(2026)
Die FES GmbH Fahrzeug-Entwicklung Sachsen entwickelte ein Steuergerät zur Steuerung und Überwachung von Batteriemodulen. Das Steuergerät basiert auf einem Traveo T2G-Mikrocontroller von Infineon. Kunden des Steuergeräts sollte die Möglichkeit geboten werden, selbstständig Software-Updates auf dem Steuergerät durchzuführen. Dazu waren die Entwicklung eines Bootloaders für den Traveo T2G und die Entwicklung eines Flash-Tools zur Übertragung der neuen Softwareapplikation erforderlich.
Im Vorfeld wurden Transportschichtimplementierungen und Kommunikations-protokolle ermittelt, die sich für den Flashvorgang eines Steuergeräts eignen. Die Wahl fiel auf das Controller Area Network (kurz CAN) als Transportschichtimplementierung und das CAN Calibration Protocol (kurz CCP) als Kommunikationsprotokoll.
In der Masterarbeit wurde ein Bootloader entwickelt, der die neue Softwareapplikation empfängt und in den Flashspeicher des Steuergeräts schreibt. Gleichzeitig erfolgten Anpassungen an der aktuellen Softwareapplikation, um die Anforderung eines Flashvorgangs entgegenzunehmen, die Applikation herunterzufahren und den Bootloader zu starten.
Außerdem wurde ein Flash-Tool mit der Programmiersprache Python entwickelt, das von Kunden auf einem PC ausgeführt werden kann. Ein PCAN-USB-Adapter von PEAK-System dient als Verbindung zwischen PC und CAN-Bus. Das Tool besitzt eine graphische Benutzeroberfläche, die den Anwendern eine einfache Bedienung ohne Hardwarekenntnisse des Steuergeräts ermöglicht. Es ist eine Konfiguration des Tools möglich, um auch weitere Steuergeräte zu unterstützen. Die Konfiguration erfolgt über ein Konfigurationsarchiv, das alle benötigten Dateien für den Flashvorgang enthält. Um das Flashen einer ungültigen Applikation zu verhindern, kann das Tool Manipulationen im Konfigurationsarchiv erkennen.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit sich das Function Calling von ChatGPT nutzen lässt, um automatisch SQL-Queries aus natürlichsprachlichen Anfragen zu generieren. Ziel war es, zu prüfen, ob durch die Anreicherung von Modellinformationen zu Tabellen und Spalten eine korrekte Übersetzung von Klartext in strukturierte SQL-Abfragen möglich ist.
Dazu wurde eine Anwendung entwickelt, die ChatGPT über eine API mit zusätzlichen Datenbankinformationen versorgt. Neben der Nutzung klassischer Prompts kamen auch Embeddings zum Einsatz, um Rechtschreibfehler und umschriebene Formulierungen besser erkennen zu können. In mehreren Testdurchläufen wurden unterschiedliche Versionen der Anwendung evaluiert und die Erfolgsquoten systematisch verglichen.
Die Ergebnisse zeigen, dass Anfragen mit exakten Angaben zu Tabellen- und Spaltennamen überwiegend korrekt verarbeitet werden. Allerdings traten Schwierigkeiten bei fehlerhaften Eingaben, Beschreibungen von Tabellen oder bei der Verwendung von Fremdschlüsseln auf. Mit Embeddings konnte die Korrektheit insbesondere bei Fehleranfragen deutlich gesteigert werden. Insgesamt konnte eine maximale Erfolgsquote von 42 % erreicht werden.
Die Arbeit verdeutlicht, dass ChatGPT in Kombination mit Function Calling und Embeddings ein vielversprechender Ansatz für die automatische Generierung von SQL-Queries ist. Gleichzeitig wird deutlich, dass für eine produktive Nutzung weitere Verbesserungen, insbesondere hinsichtlich Robustheit, Fremdschlüssel-Logik und Modellwahl, notwendig sind.
Ziel dieser Arbeit ist es, die Auswirkungen von mit der Plasmajet-Technologie erzeugtem stickstoffhaltigem Bewässerungswasser auf das Pflanzenwachstum zu untersuchen. In dieser Arbeit wird der Stickstoffgehalt von Bewässerungswasser analysiert, das über unterschiedliche Zeiträume einer Hochleistungsplasmabehandlung unterzogen wurde. Unter Anwendung der Methode der kontrollierten Variablen werden Vergleichsexperimente durchgeführt, um den spezifischen Einfluss von plasmaaktiviertem Wasser (PAW) auf das Pflanzenwachstum systematisch zu evaluieren.
Die Experimente werden unter Einsatz eines Atmosphärendruckplasmajets mit unterschiedlichen Behandlungsdauern durchgeführt. In dieser Arbeit erfolgt die Analyse des Stickstoffgehalts im behandelten Wasser anhand ausgewählter Proben. Für den Versuch werden Gurken-, Schnittlauch- und Spinatsamen ausgewählt. Die Bewässerung erfolgt mit plasmaaktiviertem Wasser; zur Untersuchung des Einflusses der Plasmabehandlung auf Keimung, Wachstumsrate und Biomassebildung werden mehrere Versuchs- und Kontrollgruppen eingerichtet.
Die chemische Analyse zeigt, dass die Plasmabehandlung den Stickstoffgehalt des Wassers, welches zur Bewässerung genutzt wird, signifikant erhöht. In den Versuchsgruppen mit plasmabehandeltem Wasser wird im Vergleich zur Kontrollgruppe eine beschleunigte Pflanzenentwicklung sowie ein höheres Erntegewicht beobachtet. Dies zeigt die positive Wirkung einer Plasmabehandlung von Wasser für die Bewässerung von Pflanzen mit dem Ziel einer Verbesserung der Nährstoffverfügbarkeit und der Förderung des Pflanzenwachstums.
Eine häufige Ursache für Übersetzungsfehler während der Softwarelokalisierung ist fehlendes Kontextwissen zu einem Softwareprodukt. Einerseits ist Kontext in der Translation nicht eindeutig definiert und geeignete Methoden zur Vermittlung von Kontextinformationen fehlen oder sind Übersetzern und Softwareentwicklern nicht bekannt. Andererseits ist Softwareentwicklern die Notwendigkeit der Übermittlung von Kontextwissen bewusst genug und es fehlt an Kenntnissen dazu, wie dieses Wissen adäquat vermittelt werden kann.
Als Beitrag zu einer Lösung für diese Probleme analysiert diese Arbeit translatologische Literatur zur Erfassung einer Definition von Kontext durch eine Taxonomie und ergänzt diese anhand von Softwarebeispielen. Für die Vermittlung der Unterkategorien von Kontext werden in einem zweiten Schritt geeignete Methoden aus der Literatur zur Softwareentwicklung zusammengestellt, kurz erläutert und dann so zugeordnet, dass für jede die gesamte Software betreffende Kontextkategorie mindestens zwei Methoden für deren Beschreibung aufgeführt werden. Zur Darstellung der notwendigen Kontextinformationen zu den einzelnen Strings wird ein Medium-Fidelity-Prototyp entworfen und vorgestellt.
Die Arbeit zeigt Softwareentwicklern und Übersetzern exemplarisch Möglichkeiten zur Verbesserung der Kommunikation in Softwarelokalisierungsprojekten mit Fokus auf Kontextvermittlung auf und fördert so das Verständnis der verschiedenen Facetten von Kontext in der Softwarelokalisierung.
Szintillationsdetektoren sind aufgrund ihrer hohen Nachweiseffizienz sowie ihrer Energie- und Zeitauflösung zentrale Komponenten in der Nuklearphysik und der medizinischen Bildgebung.
Mit der zunehmenden Verbreitung von Silizium-Photomultipliern (SiPMs) als Auslesetechnologie tritt jedoch ein wesentliches Problem auf: Lokale Intensitätsspitzen in der Photonenverteilung können zu einer nichtlinearen Detektorantwort und damit zu einer Verringerung der Detektoreffizienz führen. Zudem deuten erste Simulationen darauf hin, dass Szintillationsphotonen insbesondere bei Kristallen mit großem Längen-Seiten-Verhältnis an den Rändern und Ecken der Auskoppelfläche gehäuft auftreten.[1]
Ziel dieser Arbeit war es, experimentell zu untersuchen, ob und in welchem Ausmaß eine inhomogene Intensitätsverteilung bei Ce:GAGG-Szintillatoren (Gadolinium-Aluminium-Gallium-Granat:Ce) auftritt. Hierfür wurde ein Messaufbau entwickelt, bei dem die Auskoppelfläche verschiedener Ce:GAGG-Kristalle in einer lichtdichten Messkammer mit einer hochauflösenden CMOS-Kamera (Raspberry Pi HQ, 4056 × 3040 Pixel) unter Bestrahlung mit Na-22, Co-60 und kollimiertem Sr-90 fotografisch erfasst wurde. Die aufgenommenen Rohbilder im BGGR-Bayer-Muster wurden in Graustufenbilder umgewandelt, um die Intensitätsverteilung quantitativ auszuwerten.
Die Ergebnisse zeigen, dass sowohl die Kristallgeometrie als auch die Oberflächenbeschaffenheit und die verwendeten Reflektormaterialien einen Einfluss auf die absolute Intensität, aber auch auf deren Verteilung entlang der Auskoppelfläche haben. Diese Erkenntnisse liefern eine Grundlage für weiterführende Untersuchungen - insbesondere in Bezug auf die Oberflächenbeschaffenheit von Szintillatoren - mit dem Potenzial, zur Entwicklung optimierter Auslesesysteme für Szintillationsdetektoren beizutragen.
Die vorliegende Arbeit untersucht den Einsatz von LightRAG als erweitertes RetrievalAugmented-Generation-System (RAG) zur Verwaltung und Nutzung der Organisationsrichtlinien bei der Volkswagen Sachsen GmbH. Ausgangspunkt ist die zunehmende Komplexität betrieblicher Abläufe sowie die stetige Aktualisierung zahlreicher Richtliniendokumente. Ziel war, zu evaluieren, ob ein wissensgraphbasiertes Retrieval (LightRAG) gegenüber konventionellen RAG-Ansätzen einen Mehrwert hinsichtlich Relevanz, Genauigkeit und Aktualisierbarkeit der Antworten bietet.
Basierend auf einem realen Datensatz von 236 Richtliniendokumenten wurden verschiedene RAG-Methoden in Bezug auf Faithfulness, Answer Relevancy und Context Relevancy getestet. Die Ergebnisse zeigen, dass LightRAG in einigen Konfigurationen solide Leistungen erbringt, insgesamt jedoch nicht durchgängig besser ist als einfachere Systeme (z. B. NaiveRAG oder Hybrides RAG). Neben vergleichbarer Ergebnisqualität erfordern sowohl die Erstellung als auch die Pflege des Wissensgraphen einen erhöhten Zeit- und Kostenaufwand.
Die Arbeit schließt mit Handlungsempfehlungen für die Einführung von LightRAG sowie einem Ausblick auf relevante Aspekte des EU AI Acts, der die regulatorischen Rahmenbedingungen für KI-Systeme neu definiert und insbesondere hohe Anforderungen an Risikomanagement, Transparenz und Compliance stellt.
Ziel der vorliegenden Arbeit ist es, Anwendungsmöglichkeiten und Grenzen von Large Language Models in Bezug auf die Verarbeitung von PDF-Dokumenten der Kassenärztlichen Vereinigungen zu prüfen. Dabei wird evaluiert, inwiefern Dokumente vergleichend analysiert werden, als Quellen für einen Chatbot dienen und Tabellen aus ihnen extrahiert werden können.
Zunächst werden die allgemeine Funktionsweise sowie die Grenzen und Probleme von LLMs aufgeführt. Es werden verschiedene Methoden für die Extraktion von strukturierten Daten beschrieben. Für die Nutzung der Dokumente wird Retrieval Augmented Generation (RAG) als sinnvollstes Verfahren identifiziert. Dafür werden spezielle Methoden und Vorgehensweisen beschrieben, die den Prozess optimieren sollen. Außerdem werden Möglichkeiten zur Gewährleistung der Nachvollziehbarkeit von LLM-Antworten betrachtet.
Es entsteht ein konkreter Systementwurf eines Prototyps, der die drei Anwendungsfälle abdeckt. Dabei werden Dokumente kapitelweise verglichen. Es entsteht außerdem ein modulares RAG-System mit adaptivem Retrieval. Schließlich wird geprüft, inwiefern Tabellen aus Dokumenten mit Vision Language Models extrahiert werden können. Der entwickelte Prototyp wird schließlich mit verschiedenen Testdaten und Metriken hinsichtlich der Eignung für die Anwendungsfälle evaluiert.
Anhand der Ergebnisse wird sichtbar, dass mit dem Prototyp ein Textvergleich mit guter Performanz möglich wird. Bei der Beantwortung von Fragen wird im Retrieval ein hoher Recall erreicht. Insbesondere eine sehr hohe Faktentreue ist außerdem hervorzuheben. Eine Tabellenextraktion mittels eines VLM ist dagegen nicht in ausreichender Qualität möglich.
This thesis presents an architecture design process of a reactive feedback system for a CI/CT platform. The underlying CI/CT platform manages the automated integration and validation of vehicle functions. In such dynamic environment, delayed feedback can significantly impact work cycles. The goal of this work is to design the architecture of a reactive feedback system that delivers near real-time information about test progress or software artifact status through reporting mechanisms. The system design was shaped by a structured user research process, including questionnaires and semi-structured interviews, to derive both functional and non-functional requirements. Based on these insights, architecture decisions were documented using the ADR format and guided by the arc42 framework. The architecture is modeled through C4 and UML diagrams. These artifacts provide developers with a structural foundation, supports implementation, maintenance and future evolution of the system.
Ziel dieser Arbeit ist die Entwicklung einer Funktionalität zur Gruppierung von Entitäten für die Webanwendung InFrame Synapse MES.
Im Rahmen der Untersuchung wurde eine Analyse der bestehenden Implementierungen der Gruppierungsfunktion in InFrame Synapse MES durchgeführt. Dabei wurden Einschränkungen identifiziert, die mit einer unzureichenden Ausarbeitung der Funktionalität, einer festen Bindung an bestimmte Entitätstypen sowie einer engen Abhängigkeit von der Systemstruktur von InFrame Synapse MES zusammenhängen. Diese Merkmale führen zu zusätzlichen, nicht intuitiven Benutzeraktionen und erschweren die Erweiterung der Funktionalität.
Zur Beseitigung dieser Einschränkungen wurde eine neue konzeptionelle Grundlage entwickelt, die die von einem Team aus zentralen Beteiligten der InFrame Synapse MES-Entwicklung formulierten Anforderungen berücksichtigt. Die vorgeschlagene Lösung beseitigt überflüssige Abhängigkeiten und schafft mehr Flexibilität in der Anwendung.
Das Ergebnis ist eine implementierte Funktionalität, die es den Benutzern ermöglicht, Entitäten in logische Gruppen zu organisieren, sie zu filtern, zu verwalten und zu visualisieren. Dies erhöht die Benutzerfreundlichkeit deutlich und erweitert die Möglichkeiten des Systems.
Evaluierung von Testtools zur Prüfung der Barrierefreiheit nativer Android-Apps gemäß BITV 2.0
(2025)
Diese Masterarbeit untersucht die Eignung frei verfügbarer Testwerkzeuge zur Überprüfung der Barrierefreiheit nativer Android-Anwendungen im Einklang mit der Barrierefreien-Informationstechnik-Verordnung 2.0 (BITV 2.0) und der zugrundeliegenden Norm EN 301 549. Zu diesem Zweck wurde eine eigene barrierekritische Referenzanwendung (Accessibility Lab) entwickelt, die typische Fehler aus der Praxis nachbildet. Anhand eines systematisch abgeleiteten Kriterienkatalogs erfolgte eine vergleichende Evaluation ausgewählter Tools, darunter Google Accessibility Scanner, Android Lint und eine automatisierte Teststrategie auf Basis des Accessibility Test Frameworks (ATF).
Die Analyse zeigt Unterschiede in Normabdeckung, Integrationstiefe und Praxistauglichkeit der Werkzeuge. Abschließend werden Handlungsempfehlungen für die frühzeitige Einbindung barrierefreier Testverfahren im Entwicklungsprozess gegeben.
Key performance indicators form the basis for controlling large production systems and enable decision-makers to derive appropriate measures. Currently, large production companies are implementing extensive digitization measures for the collection and visualization of these key performance indicators. However, the potential of predictive analytics and automated decision-making has only been exploited in isolated cases.
The potential for improving the quality and efficiency of decision-making processes is not being exploited. This means that an opportunity to reduce production costs remains untapped. In addition, existing approaches are limited to individual solutions that are poorly scalable, adaptable, and reusable. The problem is solved by developing a methodology using the design science research approach. In a requirements analysis, the findings from the literature review are compared with the practical requirements of large production systems in order to create a detailed catalog of requirements.
Based on this, the sub-steps of the methodology are developed and orchestrated into an overall methodology. Validation is carried out through the implementation of concrete use cases, comparison with predefined success criteria, and incorporating expert feedback. The methodology is used to develop forecasting capabilities and decision automation and integrate them into the daily routine of production control in order to optimize the cost efficiency of production. The scalability and reusability of the applications developed with it enable their cross-plant introduction and uniform adaptability.
As the first use case, an automated cloud-based end-to-end data pipeline for container prediction is being developed in the supply centers of the BMW plant in Munich, enabling dynamic personnel planning and cost optimization.
Die vorliegende Bachelorarbeit befasst sich mit der Entwicklung einer teilautomatisierten Softwarelösung zur Endmessung von Laserdiodenmodulen. Ziel ist es, eine modulare Anwendung zu konzipieren und umzusetzen, die alle relevanten Messgeräte – darunter Powermeter, Spektrometer, Oszilloskop sowie mechanische Komponenten wie Spindel und Filterschieber – softwaregestützt ansteuert und die ermittelten Messdaten auswertet und dokumentiert.
Die Software wurde in Python entwickelt und nutzt verschiedene Schnittstellen zur Gerätekommunikation, darunter SCPI, TMCL sowie DLL-basierte APIs. Der Entwurf folgt einem modularen Architekturansatz mit Fokus auf Wartbarkeit, Benutzerfreundlichkeit und Erweiterbarkeit. Die grafische Benutzeroberfläche wurde mit Graphical User Interface (GUI)-Elementen in Tkinter umgesetzt und nach anerkannten Usability-Prinzipien gestaltet.
Zur Sicherstellung der Gebrauchstauglichkeit wurde ein strukturierter Usability-Test mit vier Testpersonen aus dem Produktionsumfeld durchgeführt. Die Ergebnisse zeigen eine hohe Nutzerzufriedenheit (SUS-Score 82,5), insbesondere hinsichtlich Bedienbarkeit, Rückmeldung und Visualisierung.
Die entwickelte Anwendung stellt eine praxistaugliche Lösung zur Standardisierung und Teilautomatisierung von Endmessprozessen in der optoelektronischen Fertigung dar. Vorschläge zur Weiterentwicklung umfassen u. a. eine tiefere Datenbankintegration, Mehrsprachigkeit sowie ein rollenbasiertes Zugriffskonzept.
Entwicklung eines Prototyps für ein Meister Cockpit zur Produktionsüberwachung und -steuerung
(2025)
Die Arbeit befasst sich mit der Erstellung eines Prototyps für einen Meister für Produktionsüberwachung und -steuerung. Als Grundlage dienten Kundeninterviews, in denen die Anforderungen an das System gesammelt wurden. Bei der Umsetzung wurde das Prinzip der menschenzentrierten Systemgestaltung berücksichtigt. Am Ende wurde ein Ergebnis - ein Cockpit erstellt, das die identifizierten Kundenanforderungen erfüllt.
Diese Bachelorarbeit befasst sich mit der präventiven Vermeidung von Montagefehlern „Crashes“ in der Cockpitmontage am Takt. Durchschnittlich führen täglich 4 fehlerhafte Cockpitmodule zu Stillständen am Takt.
Ziel ist es, ein Industrial Computer Vision (ICV)-System zu entwickeln, das mithilfe Künstliche Intelligenz (KI) einer automatisierten Handlungsempfehlung an die Montagekräfte gibt, um fehlerhafte Cockpitmodule frühzeitig zu erkennen und korrigieren zu können. Die Grundlage hierfür bilden neu erhobene Bilddaten, die in Echtzeit ausgewertet werden. Die methodische Vorgehensweise umfasste eine Prüfung des Soll-Ist-Zustands des Fertigungsprozesses, eine Anforderungsanalyse und die prototypische Umsetzung eines Proof of Concept (PoC). Das Ergebnis ist eine Handlungsempfehlung direkt an der Montagelinie, die sowohl die Originalbildaufnahmen des aktuell durchlaufenden Cockpitmodule anzeigt als auch eine KI-gestützte Bewertung liefert– mit der Klassifikation in Ordnung oder nicht in Ordnung. Des Weiteren wurde ein automatisierter Bericht auf Basis der neu erhobenen Datengrundlage des Prozesses erstellt, um operative Auswertungen vorzunehmen. Die Arbeit zeigt, dass eine KI-basierte, vollständig optische 100%-Prüfung auf schwer zugänglichen Förderlinien technisch realisierbar ist und einen wertvollen Beitrag zur Optimierung des Fertigungsflusses in der industriellen Montage leisten kann.
Die Aus- und Weiterbildung von medizinischem Personal sollte nicht ausschließlich in theoretischer Form gestaltet werden, da praktisches Training vor allem in diesem Bereich sehr nachhaltig ist, um komplexe Handgriffe oder OP-Techniken schneller und sicherer durchführen zu können. Aus diesem Grund gibt es eine Vielzahl an Simulatoren, an denen man ohne Patientengefährdung medizinische Eingriffe üben kann. Diese Bachelorarbeit beschäftigt sich mit der Optimierung eines Trainingssimulators für die perkutane Nephrolithotomie (PCNL). Dafür sollen die Herstellungsschritte kritisch hinterfragt und bei Bedarf überarbeitet werden, da die Qualität der Ultraschallblöcke bei vermeintlich gleicher Herstellung nicht konstant ist.
Verschiedene Silikon-Zusammensetzungen des Moduls wurden getestet, um die Einflüsse der einzelnen Komponenten zu untersuchen. Dabei sind eine geeignete Zusammensetzung gefunden und Fehlerquellen im Produktionsprozess detektiert worden. Weiterhin soll der Trainer in seiner Funktion erweitert werden. Bisher war ausschließlich die Simulation einer PCNL in Bauchlage (prone Lagerung) möglich. Da die OP auch in Rückenlage (supine Lagerung) durchgeführt wird, benötigt es für diese Lagerung ebenfalls eine Trainingsmöglichkeit. Es wurden hierfür Anforderungen diskutiert und 3D-Modelle für einen Prototypen konstruiert.
Die vorliegende Bachelorarbeit adressiert die zeitintensive E-Mail-Bearbeitung in der Elterngeldberatung. Ziel ist die Konzeption und prototypische Implementierung eines KI-gestützten Assistenzsystems zur Effizienz- und Qualitätssteigerung, unter besonderer Berücksichtigung der Praktikabilität auf definierter lokaler Serverhardware. Das System nutzt eine Multi-LLM-Architektur mit Retrieval-Augmented Generation zur Anreicherung mit Fakten aus dem Bundeselterngeld- und Elternzeitgesetz und integriert Kundendaten aus einem CRM-System.
Die methodische Vorgehensweise umfasste die Anforderungsanalyse, Systemkonzeption, Technologiewahl (Python, FastAPI, Ollama, Faiss) und die prototypische Implementierung. Die Evaluation beinhaltete einen RAG-Benchmark, eine qualitative Expertenbewertung der generierten Antwortentwürfe und eine Performanzanalyse.
Als zentrales Ergebnis zeigt sich, dass das System mit dem LLM Gemma3:27b prinzipiell eine hohe Antwortqualität und Effizienz erzielen kann. Die Praktikabilität auf der Zielhardware wird jedoch signifikant durch VRAM-Limitierungen eingeschränkt, welche den optimalen Einsatz der RAG-Komponente verhindern. Die Arbeit demonstriert das Potenzial KI-basierter Unterstützung, verdeutlicht aber auch die Herausforderungen beim Betrieb auf ressourcenlimitierter lokaler Hardware. Zukünftige Arbeiten sollten Lösungsansätze für solche Hardware-Beschränkungen adressieren.
Diese Bachelorarbeit befasst sich mit der Konzeption und der prototypischen Entwicklung einer Softwarelösung für das Gefahrstoffmanagement in einem Gesundheitsunternehmen. Ausgehend von der Problemstellung eines fehleranfälligen, manuellen Managements auf Basis von Excel-Tabellen wird das Ziel verfolgt, die Prozess- und Revisionssicherheit durch einen zentralen, datenbankgestützten Ansatz zu erhöhen.
Der Schwerpunkt liegt dabei auf der Implementierung der Zusammenlagerungsregeln gemäß TRGS 510, wofür eine Software nach dem Model-View-Controller-Muster mit Python, SQLAlchemy und einer SQLite-Datenbank entwickelt wurde. Diese Anwendung automatisiert die Prüfung der Zusammenlagerung von Gefahrstoffen, verwaltet relevante Dokumente und protokolliert alle Datenänderungen revisionssicher. Das Ergebnis ist ein funktionaler Prototyp, der nachweist, dass die Digitalisierung das Risiko menschlicher Fehler bei der Einlagerung minimiert und durch eine zentrale Datenhaltung die Nachvollziehbarkeit aller Prozesse gewährleistet. Die Arbeit bestätigt somit den signifikanten Beitrag der entwickelten Softwarelösung zur Steigerung der betrieblichen Sicherheit.
Das Plasmapolieren wurde bislang vor allem im Zusammenhang mit Edelstählen untersucht. In jüngere Zeit richtet sich das Interesse jedoch zunehmend auf weitere Werkstoffe. Damit diese erfolgreich poliert werden können, muss die chemische Zusammensetzung der Polierelektrolyte auf die jeweilige Legierungsbestandteile abgestimmt werden.
Dies ist ein Prozess, welcher mit einem erheblichen manuellen Aufwand verbunden ist. Mit dem Ziel der automatisierten Elektrolytherstellung wird ein Prototyp entworfen, der mit vordefinierte Elektrolytrezepturen, den manuellen Arbeitsaufwand deutlich reduziert. Hierbei können leichter Proben entwickelt und Elektrolyte für Metalle und Legierungen hergestellt werden. Dabei wurden mechanische Komponenten mit einer Steuerungseinheit und Sensoren verknüpft.
Im Rahmen dieser Arbeit wurde ein qualitativer Vergleich zwischen einer kommerziellen und mehreren innovativen Aktivkohlen zur Anwendung in der Druckwechseladsorption durchgeführt. Die Druckwechseladsorption ist ein etabliertes Verfahren zur Gasaufbereitung und ein Baustein in der Wasserstoffwirtschaft. Dazu wurden Durchbruchversuche an einer Versuchsanlage durchgeführt, welche die wesentlichen Prozessschritte der Druckwechseladsorption durchgeht. In den Versuchen wurden die Parameter Gaszusammensetzung, Druck und Volumenstrom variiert, um die Beladungskapazitäten der Materialien zu bestimmen.
Die Ergebnisse zeigen, dass zwei der drei innovativen Aktivkohlen höhere Beladungskapazitäten als die kommerzielle Referenz aufweisen. Die dritte innovative Aktivkohle erreicht nur vergleichbare Ergebnisse zur kommerziellen Aktivkohle. Die Untersuchung verdeutlicht das Potenzial innovativer Aktivkohlen für den Einsatz in PSA-Prozessen, macht jedoch auch die Notwendigkeit weiterer Optimierungen deutlich. Besonders im Hinblick auf die Reduzierung des Abriebs ist eine Weiterentwicklung erforderlich, um eine ausreichende mechanische Stabilität im industriellen Maßstab zu gewährleisten. Zukünftige Untersuchungen an einer erweiterten Versuchsanlage mit vier Kolonnen sollen das Verhalten der Aktivkohlen unter praxisnäheren Bedingungen und höheren Drücken aufzeigen.