Robuste und adaptive Methoden zur Spur/Vertexrekonstruktion
Robust and adaptive methods for track/vertexreconstruction
Wissenschaftsdisziplinen
Informatik (25%); Mathematik (50%); Physik, Astronomie (25%)
Keywords
-
CLUSTERING,
ROBUST ESTIMATION,
ADAPTIVE ESTIMATION,
CLASSIFICATION
Effiziente Rekonstruktion von Teilchenspuren und Wechselwirkungspunkten (Vertizes) ist ein wichtiger Schritt in der Analyse von experimentellen Daten in der Teilchenphysik. Die Algorithmen müssen der Physikanalyse zuverlässige Resultate liefern, aber auch genügend schnell sein, um die riesigen anfallenden Datenmengen (fast) in Echtzeit zu bewältigen. In der nächsten Generation von Experimenten am LHC (Large Hadron Collider im CERN, Genf) wird die Spur- und Vertexrekonstruktion ausnehmend schwierig sein: wegen der hohen Datenraten, der großen Anzahl von Spuren und Vertizes pro Strahlkollision, und wegen des hohen Untergrundes, auf dem die relevanten Spuren, der Hauptvertex und eventuelle Zerfallsvertizes gefunden werden müssen. Das Problem ist bisher meist in zwei Teile zerlegt worden: Mustererkennung und Schätzung. Eines der Ziele des Projekts ist die Entwicklung und Implementierung adaptiver Methoden, die die Schätzung gleichzeitig mit der Zuordnung der Meßpunkte zu Spuren bzw. der Spuren zu Vertizes vornehmen. Adaptive Methoden sollten unempfindlicher gegen Untergrund und auch schneller als herkömmliche Methoden sein. Sie sind jedoch in der Regel iterativ und daher sensitiv auf die Anfangswerte der zu schätzenden Größen und auf die Anfangszuordnung. Ein anderes Ziel des Projektes ist daher die Erforschung robuster Methoden, die trotz hohem Untergrund genügend gute Anfangswerte liefern. Die Rekonstruktion von extrem kurzlebigen und daher unsichtbaren Teilchen erfordert weiters zuverlässige Klassifikationsmethoden, die die Spuren ihrem Produktionsvertex zuordnen können und somit dem adaptiven Schätzer eine gute Anfangs-zuordnung liefern. Die Entwicklung solcher Methoden ist ebenfalls ein wichtiger Bestandteils des Projekts. Es ist anzunehmen, daß die optimale Wahl der Methode vom betrachteten physikalischen Prozess abhängt; es ist daher wichtig, je nach den Umständen die richtige Methode anzuwenden. Dieses schwierige Problem wird im Projekt angerissen, aber wohl kaum vollständig gelöst werden. Die Resultate des Projekts sind für das Experiment CMS bestimmt, das im Jahr 2006 am LHC in Betrieb gehen wird. Die entwickelten Algorithmen werden daher in der objekt-orientierten Software-Umgebung von CMS implementiert. Dies sollte ihre Wiederverwendbarkeit durch andere Experimente erleichtern.
Die Experimente am neuen LHC-Beschleuniger im CERN werden 2007 in Betrieb gehen und der Teilchenphysik neue Wege weisen. Die Software zur Datenanalyse ist ein wichtiger Bestandteil des Experiments. Bei jeder Kollision der Protonenstrahlen im LHC werden zahlreiche Teilchen erzeugt, die teils stabil sind, teils rasch zerfallen. Die bei der Kollision oder durch Zerfälle entstehenden Teilchen werden im Detektor vermessen. Es ist die Aufgabe der Software, aus den Detektorsignalen die Teilchen-spuren zu rekonstruieren, sowie eventuelle Zerfallspunkte (Vertizes) aufzufinden und zu schätzen. Dazu sind Methoden der Mustererkennung sowie statistische Schätzmethoden erforderlich. Wir haben im Projekt Methoden entwickelt, die den schwierigen Bedingungen in den LHC-Experimenten gerecht werden. Aufgrund der extrem hohen Datenrate und der hohen Teilchendichte im Detektor sind Algorithmen erforderlich, die schnell, unemp-findlich gegen Untergrund (robust) und trotzdem präzise (statistisch effizient) sind. Wir haben für die Spurschätzung und für die Vertexschätzung Methoden gefunden, die in Abwesenheit von Untergrund praktisch optimal sind, vorhandenen Untergrund aber effizient und automatisch unterdrücken können. Wir nennen diese Schätzer adaptiv, weil sie sich selbständig den experimentellen Gegebenheiten anpassen. Alle diese Methoden sind iterativ, und ihr Verhalten kann stark vom Startpunkt der Iteration abhängen. Wir konnten eine robuste Schätzmethode identifizieren, die in allen praktisch relevanten Fällen einen geeigneten Startpunkt findet. In unserem Projekt haben wir auch verschiedenste Methoden der Mustererkennung studiert und weiterentwickelt, um das Auffinden von Zerfallsvertizes kurzlebiger Teilchen zu optimieren. Wir konnten zeigen, dass der adaptive Schätzer auch zur Vertexsuche verwendet werden kann und in diesem Kontext deutlich schneller ist als die bisher üblichen Methoden. Er kann daher auch in Echtzeit eingesetzt werden, um physikalisch interessante Ereignisse herauszufiltern. Alle im Lauf des Projektes entwickelten Methoden wurden im Rekonstruktionsprogramm des CMS-Experiments implementiert, validiert und in einem physikalisch relevanten Kontext evaluiert. Zur Validierung und Evaluation wurde ein Zahl von Software-Werkzeugen entwickelt, etwa eine graphische Darstellung von Spuren und Vertizes, eine schnelle Vertexsimulation und ein Werkzeug zur automatischen Optimierung der Algorithmen. Die im Projekt entwickelten Methoden sind auch bei anderen Experimenten auf Interesse gestoßen. Es ist geplant, die wichtigsten Algorithmen in einem eigenständigen Software-Paket verfügbar zu machen. Da die derzeitige Implementierung voll auf dem objektorientierten Paradigma fußt, sollte dies mit relativ geringem Aufwand möglich sein.
Research Output
- 1 Publikationen
-
2003
Titel Properties of robust vertex fitting algorithms at high luminosity HEP experiments DOI 10.1109/nssmic.2003.1351832 Typ Conference Proceeding Abstract Autor D'Hondt J Seiten 858-862