Refine
Year of publication
- 2026 (4)
- 2025 (97)
- 2024 (97)
- 2023 (90)
- 2022 (85)
- 2021 (72)
- 2020 (22)
- 2019 (72)
- 2018 (83)
- 2017 (83)
- 2016 (77)
- 2015 (93)
- 2014 (96)
- 2013 (90)
- 2012 (105)
- 2011 (65)
- 2010 (100)
- 2009 (113)
- 2008 (40)
- 2007 (90)
- 2006 (62)
- 2005 (16)
- 2004 (22)
- 2003 (55)
- 2002 (39)
- 2001 (34)
- 2000 (49)
- 1999 (58)
- 1998 (44)
- 1997 (50)
- 1996 (22)
- 1995 (19)
- 1994 (22)
Document Type
- Diploma Thesis (839)
- Bachelor Thesis (711)
- Master's Thesis (399)
- Article (67)
- Part of a Book (31)
- Book (7)
- Report (4)
- Preprint (3)
- Other (2)
- Working Paper (2)
Institute
- Physikalische Technik, Informatik (2066) (remove)
Ultrakurze Laserpulse mit Pulsspitzenintensitäten bis zu 10^(22) W/cm^2 bekommen immer mehr Aufmerksamtkeit zur Anwendung in der Beschleunigertechnik, der Fusionsforschung und der Strahlentherapie. Am Helmholtz-Zentrum Dresden-Rossendorf (HZDR) wird hierfür das PENELOPE-Lasersystem (Petawatt, ENergy-Efficient Laser for Optical Plasma Experiments) gebaut. Dieses System beruht auf dem CPA-Verfahren (Chirped Pulse Amplification) und setzt sich aus drei Hauptkomponenten zusammen: dem Frontend, den Hauptverstärkern und dem Pulskompressor.
Die vorliegende Arbeit konzentriert sich auf die zeitliche Charakterisierung des Frontends. Im Frontend des Systems wird der Laserpuls erzeugt, wobei Eigenschaften wie Pulsdauer und Pulsenergie verändert werden. Zur Charakterisierung wurden die zeitliche Pulsbreite sowie die spektrale Phase analysiert. Die Ergebnisse bestätigen die korrekte Konzeption der optischen Komponenten im Frontend. Ein weiterer entscheidender Einflussfaktor auf die Qualität des Laserpulses ist der zeitabhängige Intensitätskontrast. Dieser wurde zunächst analysiert und anschließend optimiert. Zudem konnten Intensitätsstrukturen, wie Vor- und Nachpulse, identifiziert und eliminiert werden. Die daraus gewonnenen Erkenntnisse ermöglichen eine optimierte Einkopplung des Laserpulses in den Hauptverstärker.
The Thesis covers the current water problems in the city of Bengaluru with respect to large apartment complex and aims to explore solutions to convert the treated water from the Sewage treatment plant installed the apartment complexes to potable quality.
Futher more the study reviews the legal requirements and water tests to be performed and their results are analysed. Final a comparison of various water treatment technology, best practices from neighbouring apartments are taken into consideration for a final suggestion.
Diese Bachelor-Arbeit entstand im Kontext von und in Zusammenarbeit mit der GK Software SE. Sie behandelt die Anforderungsanalyse für eine Software-Neuentwicklung im IT-Sicherheitsmanagement.
Die Möglichkeit einer Bedrohungslage entsteht mit dem Eingang von E-Mails. In ihnen lassen sich leicht verschiedene Schädlinge für die IT-Sicherheit transportieren. Bedrohungen, die über E-Mail verursacht werden, können sein: die Verbreitung von Malware, Spam (als Teil von Denial of Service-Attacken, Werbung oder zur Datensammlung) oder Social Engineering (Phishing, Gezieltes Phishing).[European Commission: Joint Research Centre et al., 2015, S. 29–32] Die Erkennung von Schädlingen wird durch softwarebasierte Analysetools erreicht. Jede E-Mail, die als mit Schädlingen belastet identifiziert wurde, wird nach Vorgaben des Incident Management behandelt. Ziel dieser Arbeit war die Ermittlung der Schwachstellen der bisherigen Software sowie die Zusammenstellung der Anforderungen an die neue Software.
Nach der Zusammenfassung der für die Arbeit notwendigen Grundlagen aus den Bereichen ISO 27001-Zertifizierung und Requirements Engineering wird der Zustand der bisherigen Software dokumentiert.
Die Anforderungsanalyse erfasst die Anforderungen nach der Anforderungsquelle und beschreibt die Verbindlichkeit jeder Anforderung. Unter Verwendung der MASTeR-Schablonen von Rupp und den SOPHISTen werden die insgesamt 36 identifizierten Anforderungen als funktionale und nicht-funktionale Anforderungen systematisch dokumentiert.
Anschließend wird für jede Anforderung aus diesem Anforderungskatalog mindestens eine mögliche Umsetzung beschrieben, so dass eine umfangreiche Liste an Umsetzungsempfehlungen für die Programmierer entstanden ist. Einzelne prototypische Umsetzungen für Teile der neuen Software werden dargestellt.
This work presents a comprehensive analysis of the variability and reliability of the resistive switching (RS) behavior in Prussian Blue (a mixed-valence iron(III/II) hexacyanoferrate compound) thin films, used as the active layer. These films are fabricated through a simple and scalable electrochemical process, and exhibit robust bipolar resistive switching, making them suitable both for neuromorphic computing applications and hardware cryptography. A detailed statistical evaluation was conducted over 100 consecutive switching cycles using multiple parameter extraction techniques to assess cycle-to-cycle (C2C) variability in key RS parameters, including set/reset voltages and corresponding currents. One and two-dimensional coefficients of variation (1DCV and 2DCV) were calculated to quantify variability and identify application potential. Results demonstrate moderate variability compatible with neuromorphic computing and cryptographic functionalities, including physical unclonable functions and true random number generation. These findings position Prussian Blue-based memristors as promising candidates for low-cost, stable, and multifunctional memory.
Die Laserkennzeichnung ist ein wesentliches Verfahren zur dauerhaften Markierung von Werkstoffen und spielt eine zentrale Rolle in der Rückverfolgbarkeit und Qualitätssicherung. Diese Arbeit untersucht den Einfluss von Laserleistung, Scangeschwindigkeit, Pulsdauer und Pulsfrequenz auf die Markierungsqualität und Lesbarkeit von DataMatrix-Codes (DMC) gemäß ISO/IEC 29158:2020. Die Experimente wurden auf korrosionsbeständigem Stahl, Aluminium-, Titanlegierungen und Polyphenylensulfid mit drei Lasertypen durchgeführt. Die Ergebnisse zeigen, dass eine gezielte Parameterauswahl die Lesbarkeit signifikant verbessert und Optimierungspotenzial für industrielle Anwendungen bietet.
Diese Bachelorarbeit untersucht und vergleicht drei weit verbreitete Datenbankmodelle: relationale, graphenbasierte und dokumentenbasierte Datenbanken. Die Analyse erfolgt anhand ausgewählter Vertreter dieser Modelle, wobei verschiedene Kriterien betrachtet werden: Lese- und Schreibgeschwindigkeit, Schema-Flexibilität, Komplexität und Modellierung, Eignung für unterschiedliche Anwendungsfälle sowie Dokumentation und Community-Support. Zur Bewertung der Lesegeschwindigkeit, Komplexität und Modellierung sowie der Anwendungsfälle wurde ein selbstentwickeltes Essensplaner-ERM verwendet.
Die Ergebnisse zeigen, dass dokumentenbasierte Datenbanken in den meisten Tests hinsichtlich der Geschwindigkeit überlegen waren. Während relationale Datenbanken ein starres Schema haben, bieten sowohl Graph- als auch dokumentenbasierte Datenbanken eine hohe Flexibilität. Die Modellierung und Komplexität von dokumentenbasierten Datenbanken war jedoch deutlich anspruchsvoller als bei den relationalen und graphenbasierten Systemen. Zudem sind dokumentenbasierte Datenbanken nicht optimal für Daten geeignet, die durch viele n:m-Beziehungen miteinander verbunden sind, während Graphdatenbanken besonders gut für stark vernetzte Daten ausgelegt sind. Die Dokumentation und Community-Unterstützung sind beirelationalen Datenbanken am umfangreichsten, während sie bei Graphdatenbanken vergleichsweise gering sind. Für dokumentenbasierte Datenbanken gibt es ebenfalls viel Dokumentation, jedoch ist es hier oft schwieriger, in Foren schnelle Antworten auf Fragen zu erhalten.
In dieser Arbeit wurde beleuchtet, ob die Einführung eines Dashboards in ein bestehendes MES einen an UX-Faktoren gemessenen Mehrwert bei der Beurteilung von der Qualität einer Schicht ist. Dabei wurden die Grundsätze des User Centered Design eingehalten. Anhand eines Vorher-Nachher-Vergleichs durch einen UX-Fragebogen, wurde überprüft, ob das Eingangs gestellte Ziel erfüllt wurde.