16
Zeuthen Zeuthen Die technischen Gruppen Elektronik, Mechanik, Datenverarbeitung und Technische Infrastruktur in Zeuthen erbringen im Wesentlichen die für eine reibungslose Durchführung der Forschungsaufga- ben notwendigen Serviceleistungen. Die Gruppen Elektronik und Mechanik unterstützen die experi- mentellen Gruppen des FH- und M-Bereiches bei der Konzeption, beim Aufbau und beim Betrieb der verschiedenen Forschungsvorhaben. Es gibt aber auch eigenständige Entwicklungen in diesen Grup- pen, wie z. B. die Arbeiten zum Modulatorteststand (MTF). Des Weiteren arbeiten diese Gruppen an den Projekten FLASH und PETRA II mit. Die Gruppe Datenverarbeitung stellt die erforderli- chen Rechenleistungen und Servicedienste zur Ver- fügung. Darüber hinaus haben Mitarbeiter dieser Gruppe wesentliche Beiträge zu den Projekten PITZ und MTF geleistet. Die Gruppe Technische Infrastruktur konzentrierte sich im Berichtszeitraum schwerpunktmäßig auf den weiteren Ausbau der PITZ-Infrastruktur sowie auf die Vorbereitungsarbeiten zum Aufbau einer Seewasserkühlung für die Projekte PITZ und MTF. Gruppe Elektronik Der größte Anteil der Arbeiten der Elektronikgruppe floss in die Projekte PITZ (Photo Injector Teststand Zeuthen) und MTF (Modulator Test Facility). Deutlich zugenommen hat der Anteil der Aktivitäten im Rah- men des CTA-Projektes. Kleinere Beiträge gab es bei FLASH/XFEL, FCAL/ILC, LHC/CMS, QPACE und IceCube. Die Abbildung 119 gibt einen Überblick über die von der Elektronikgruppe abgerechneten Leistun- gen von Januar bis Oktober 2009. PITZ 33% MTF 22% FLASH/XFEL 13% CTA 17% QPACE 1% Andere 6% LHC/CMS 3% ICECUBE 2% FCAL/ILC 3% Abbildung 119: Aktivitäten der Gruppe Elektronik. PITZ – RF Die Absicherung des Betriebes der Anlage war wich- tigster Schwerpunkt der PITZ-Aktivitäten. Daneben gab es einige Umbauten sowie Untersuchungen und Maßnahmen zur Erhöhung der Zuverlässigkeit aller elektronischen Komponenten. Die wichtigsten Arbei- ten waren: – Umbau LLRF an RF-System 1 von DSP nach SIMCON-3 – Erweiterung LLRF RF-System 1 um zweiten RF- Waveguide –3× Powermeter, RF-Verkabelung zum Tunnel er- weitert, RF-Verkabelung in Klystronhalle erneu- ert – Vorbereitung LLRF an RF-1 und RF-2 für RF- Probe Signale von Booster und Gun (neues power divider crate, Verkabelung) – Austausch der Rackkühlungen 201

Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Zeuthen

Die technischen Gruppen Elektronik, Mechanik,Datenverarbeitung und Technische Infrastruktur inZeuthen erbringen im Wesentlichen die für einereibungslose Durchführung der Forschungsaufga-ben notwendigen Serviceleistungen. Die GruppenElektronik und Mechanik unterstützen die experi-mentellen Gruppen des FH- und M-Bereiches beider Konzeption, beim Aufbau und beim Betrieb derverschiedenen Forschungsvorhaben. Es gibt aberauch eigenständige Entwicklungen in diesen Grup-pen, wie z. B. die Arbeiten zum Modulatorteststand(MTF). Des Weiteren arbeiten diese Gruppen anden Projekten FLASH und PETRA II mit.

Die Gruppe Datenverarbeitung stellt die erforderli-chen Rechenleistungen und Servicedienste zur Ver-fügung. Darüber hinaus haben Mitarbeiter dieserGruppe wesentliche Beiträge zu den Projekten PITZund MTF geleistet.

Die Gruppe Technische Infrastruktur konzentriertesich im Berichtszeitraum schwerpunktmäßig aufden weiteren Ausbau der PITZ-Infrastruktur sowieauf die Vorbereitungsarbeiten zum Aufbau einerSeewasserkühlung für die Projekte PITZ und MTF.

Gruppe Elektronik

Der größte Anteil der Arbeiten der Elektronikgruppefloss in die Projekte PITZ (Photo Injector TeststandZeuthen) und MTF (Modulator Test Facility). Deutlichzugenommen hat der Anteil der Aktivitäten im Rah-men des CTA-Projektes. Kleinere Beiträge gab es beiFLASH/XFEL, FCAL/ILC, LHC/CMS, QPACE undIceCube. Die Abbildung 119 gibt einen Überblick überdie von der Elektronikgruppe abgerechneten Leistun-gen von Januar bis Oktober 2009.

PITZ 33%

MTF 22%FLASH/XFEL

13%

CTA 17%

QPACE 1% Andere 6%

LHC/CMS 3%

ICECUBE 2%

FCAL/ILC 3%

Abbildung 119: Aktivitäten der Gruppe Elektronik.

PITZ – RF

Die Absicherung des Betriebes der Anlage war wich-tigster Schwerpunkt der PITZ-Aktivitäten. Danebengab es einige Umbauten sowie Untersuchungen undMaßnahmen zur Erhöhung der Zuverlässigkeit allerelektronischen Komponenten. Die wichtigsten Arbei-ten waren:

– Umbau LLRF an RF-System 1 von DSP nachSIMCON-3

– Erweiterung LLRF RF-System 1 um zweiten RF-Waveguide

– 3× Powermeter, RF-Verkabelung zum Tunnel er-weitert, RF-Verkabelung in Klystronhalle erneu-ert

– Vorbereitung LLRF an RF-1 und RF-2 für RF-Probe Signale von Booster und Gun (neues powerdivider crate, Verkabelung)

– Austausch der Rackkühlungen

201

Page 2: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

PITZ-Interlock Für das Gun- und Boosterinter-lock sind schnelle Photodiodensensoren weiterentwi-ckelt worden. Der Aufbau eines Laserpuls Zählers mitEthernet- Interface dient dem Beam Inhibit System.

PITZ-Steuerung Es erfolgte die Entwicklung undInbetriebnahme von 16 Sensoren mit abgesetzter Aus-leseelektronik für die Durchflussmessung im PITZ Tun-nel. In Zusammenarbeit mit einem Kollegen aus demRechenzentrum wurde eine Längenmesssytems für Un-imover aufgebaut und in Betrieb genommen. Die Opti-mierung von Regelkreisen im Kältesystem erfolgte imRahmen von SPS Software Änderungen/Neuentwick-lungen. Die Daten der Klimatechnik sind angepasstworden an das DOOCS und können nun visualisiertwerden.

MTF (Modulator Test Facility) Der Test eines Mo-dulators mit einem 5 MW Klystron wurde erfogreichabgeschlossen (siehe Beitrag im M-Bereich, Seite 86).

RF-Interlock Neben der Betreuung/Wartung derexistierenden RF-Interlock-Systeme bei PITZ, MTFund FLASH kam es zum Aufbau von 3 weiteren RF-Interlock-Systemen für FLASH und den Klystron-Teststand in Hamburg. Jedes der hier im Hause ent-wickelten Systeme besteht aus vier unterschiedlichenTypen von Einschubkarten: Controller, AnalogIO, Di-gitalIO, LightIO. Nach sorgfältigen, allumfassendenTests, konnten die o. g. Systeme, ausgestattet mit dernach Nutzer-Vorgaben generierten Firmware, ausgelie-fert werden.

XFEL RF-Interlock (4. Generation) Für das zu-künftige XFEL RF-Interlock sind die erforderlichenDesign-Dokumente (Interlock4-Requirements.doc, In-terlock4-Concepts.doc) erarbeitet worden. Eine neueBackplane für den Einsatz im Tunnel (Differential,point-to-point connections) mit 3 Prototyp-Modulenwurde erfolgreich getestet. Neben der Hardware muss-ten neue Übertragungsprotokolle erdacht bzw. erprobtwerden. Für das Controllerboard des neuen RF-Inter-lock sind Schaltungsentwicklung und FPGA-Designabgeschlossen. Zurzeit erfolgt das Leiterplattendesigndurch eine Mitarbeiterin der EL-Gruppe. Der Weggang

von einem parallelen Bussystem, dass alle Interlock-Karten verbindet, hin zu einem, auf Punkt zu PunktVerbindungen basierenden hat mehrere Vorteile. Einderartiges System bleibt selbst bei Ausfall von einemoder mehreren Modulen noch eingeschränkt funktions-tüchtig. Defekte Module können so schneller identifi-ziert und ausgetauscht werden.

FLASH Bei der Entwicklung eines Beamdiagnose-Detektors am FLASH Beamdump wurde Verantwor-tung in den Bereichen Konzeption, Konstruktive Ge-staltung, HV-Versorgung, Verkabelung/Filterung über-nommen. Hier kommen strahlenharte Diamantsensorenzum Einsatz (Abbildung 120).

Abbildung 120: FLASH Beamdump Halo Monitor (mitDiamantsensor innen).

FCAL/ILC Für das ILC-Projekt ist eine Fanoutpla-tine für einen GaAs-Sensor entwickelt worden. DasFCAL-Readout-Konzept wurde während der Projekt-Verteidigung vor dem PRC vorgestellt. Um Detektor-Prototypen evaluieren zu können sind mehrere Mess-plätze installiert worden. Zur Positionierung der Detek-toren im Teststrahl erfolgte die mechanische Anpassungeines x/z-Piezo-Tisches. Die elektronische Steuerungwurde in Betrieb genommen.

CMS Es erfolgten weitere Zuarbeiten zum Beam-diagnose-Detektor BCM1F. Für den im Jahre 2008entwickelten LHC Bunch Train Emulator (universelles

202

Page 3: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

FPGA-I/O-Modul) ist die Funktionalität deutlich ver-bessert worden (Entwicklung neuer Firmware). ZumTesten des Emulators wurde VME-Hardware installiertund Inbetrieb genommen.

QPACE Für den Parallelrechner QPACE ist ein wei-teres Board, die SUPERROOT-Card, entwickelt wor-den. Sie hat ein Ethernet-Interface und dient der Steue-rung sowie dem Monitorieren der einzelnen Prozessor-knoten (Abbildung 121).

Abbildung 121: Parallelrechner Projekt QPACE,SUPERROOT Card.

IceCube Um die Erweiterung des IceCube Detektorsum 6 weitere strings (deep core) zu ermöglichen, wur-den 180 neue DOR-Karten (DOM Readout, ZeuthenerEntwicklung) in Betrieb genommen. Für die DOR Kar-ten sind zwei neue Firmware (ALTERA FPGA) Versio-nen entwickelt worden. Diese ermöglichen die DAQ-seitige Erfassung der leap second (Zeitkorrektur beimGPS).

CTA-Antriebstechnik Bei CTA werden zukünftigtonnenschwere Teleskope bewegt, zielgenau, möglichstschnell und ohne Überschwingen. Um diesen Anforde-rungen zu genügen, bedarf es neben spezieller robusterMechanik eines ausgeklügelten elektrischen Antriebs-systems. Das Konzept sowie die kompletten Schalt-schrankunterlagen für einen Teststand sind bereits er-stellt worden. Letzterer ist zum Jahresende aufgebautworden. Erste Dynamik-Messungen unter Last werden2010 erfolgen.

CTA-Kamera-Hochspannungsversorgung Im Ver-gleich mit anderen Hochenenergiephysik-Exprimentengibt es bei der Hochspannungsversorgung der PMTs(Photomultiplier) ganz spezielle Anforderungen. Zumeinen befinden sich bis zu 3300 PMTs (Pixel) auf klei-nem Raum (∼ 50mm Abstand). Das bedeutet, dass dieHochspannungsversorgung möglichst leistungarm seinsollte, um eine Eigenerwärmung der eng gepacktenPMT-Röhren zu vermeiden. Zum anderen kann es zueiner relativ starken Beleuchtung einzelner PMTs (hel-ler Stern, Mond, Fehlsteuerung der Kamera) kommen.Wegen dieser möglichen, hohen Restlicht-Dosen, mussdie Hochspannung für individuelle Pixel automatischreduziert werden, um eine Zerstörung des PMTs zuvermeiden. Nicht zuletzt wegen der großen Anzahl vonPMTs (ca. 100 Telescope) spielt auch der Preis einewichtige Rolle. Da es auf dem Markt nichts Vergleich-bares gab, wurde das HVCDB (High Voltage Controland Distribution Board) entwickelt. Ein erster Prototyp(Abbildung 122) zeigte gute Ergebnisse. Die Verlust-leistung bei maximalem Anodenstrom (100 µA) beträgtetwa 70 mW.

Abbildung 122: CTA, PMT High Voltage Control –Testboard.

CTA-Kamera-Trigger Die Triggeranforderungenfür die CTA-Kamera sind extrem. Alle 2.5 ns (400 MHz)soll das Triggersignal aus einer programmierbaren Ko-ninzidenz von z. B. benachbarten Pixeln gebildet wer-den. Problematisch ist die Bündelung und der Transfer

203

Page 4: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

der dabei entstehenden riesigen Datenmengen. Ein digi-tales Triggerkonzept, basierend auf neuesten ALTERA-FPGAs, ist vorgestellt worden. Erste praktische Testszur Untersuchung der ultraschnellen seriellen FPGA-links wurden durchgeführt.

ZEW (Elektronik-Werkstatt)

Die Arbeiten von ZEW in 2009 waren dominiert vonPITZ (Abbildung 123) mit den folgenden Schwerpunk-taufgaben:

– Interlocksysteme und diverse Elektronikkompo-nenten für PITZ und MTF

– Kabelkonfektionierung inkl. HF- und LWL

– Elektronik für Strahldiagnose bei PITZ undFLASH

– Installation und Inbetriebnahme des neuen SMD-Bestückungsautomaten

– Installation der Bondmaschine DELVOTEC 5632Deep Access

– Fachausbildung von zwei Elektronikern(innen)

MTF 19%

sonstige 9%

projektunabh. 6%

TTF / XFEL 4%

PITZ 62%

Abbildung 123: Aktivitäten von ZEW in 2009.

Gruppe Mechanik

Die Gruppe Mechanik ist in die Teilbereiche Konstruk-tion/Entwicklung (Ingenieure und Technische Zeich-ner), Mechanische Werkstatt und Mechanische Lehr-werkstatt untergliedert.

Das Tätigkeitsfeld der Gruppe ist die Mitarbeit beider Konzipierung und Entwicklung von Geräten fürexperimentelle Anwendungen in den Bereichen Ele-mentarteilchenphysik, Beschleunigerphysik und Astro-teilchenphysik. Dazu gehören sowohl konzeptionelleArbeiten, die Konstruktion und Fertigung als auchtechnologische Versuche bis hin zur Installation undMontage am Experiment. Die Betreuung der Fertigungvon Komponenten und Baugruppen und der Vakuum-service für den Photoinjektor-Teststand sind ebensowesentliche Bestandteile der Arbeit in der Gruppe Me-chanik.

Auch im Jahre 2009 nahmen die Arbeiten in der GruppeMechanik für den Photoinjektor-Teststand einen breitenRaum ein (Abbildung 124).

Die Konstruktionsaufgaben werden mit dem CAD-Programm I-DEAS bearbeitet. Dieses ist ein leis-tungsstarkes 3-D-Programm, das neben dem Model-lieren von Bauteilen und komplexen Baugruppen und

PETRA III 17%

MTF 8%

FLASH 10%

Sonstige 1%

CTA 16%

PITZ 48%

Abbildung 124: Aktivitäten der Gruppe Mechanik.

204

Page 5: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

der Zeichnungserstellung auch die Durchführung vonFEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrereIngenieure oder Zeichner am gleichen Projekt arbeitenkönnen, was bei den zum Teil vielschichtigen Aufga-ben effektiv ist und Fehler vermeiden hilft. Der Da-tenaustausch mit externen Gruppen und die Übergabevon Konstruktionsdaten direkt an die CNC-gesteuertenWerkzeugmaschinen sind ebenfalls sehr nützliche Op-tionen. Im Jahre 2008 wurde begonnen, parallel zuI-DEAS mit dem CAD-Programm Solid Edge zu kon-struieren, um den optimalen Datenaustausch mit dembei PETRA III angewendeten CAD-System zu gewähr-leisten.

Photoinjektor-Teststand (PITZ)

Hauptaufgabe im Jahr 2009 waren die Konstruktion undFertigung von Komponenten für das Tomographiemo-dul. Dabei handelte es sich u. a. um mehrere Schirmsta-tionen gleichzeitiger Erweiterungen des TV-Systems.Um den hohen Anforderungen an die Positioniergenau-igkeit der Schirmstationen gerecht werden zu können,wurden ein Hexapod (Abbildung 125) zur Justierungund ein Lasertracker zur exakten Vermessung ange-schafft. Die Montageabläufe wurden getestet und wer-den im laufenden Shutdown zur Anwendung kommen.

Eine wesentliche Aufgabe ist die ständige Aktualisie-rung des 3-D-Modells der gesamten Anlage als Grund-lage für die Zusammenarbeit mit Kollaborationspart-nern, die Teilkomponenten entwickeln, und anderenGewerken. In diesem Zusammenhang stehen auch Zu-arbeiten für den Hochenergetischen Arm (HEDA 2)und die Transverse Deflecting Cavity.

In Vorbereitung des Shutdowns wurden vakuumtech-nische und vakuumphysikalische Untersuchungen anT-Combinern und Dunkelstrommonitoren vorgenom-men sowie Konstruktionsarbeiten zur HF-Versorgunggeleistet. Für den Modulatorteststand wurden Abschir-mungen sowie ein Kabel-Anpassnetzwerk konstruiertund gefertigt. Im Rahen des Shutdowns wurde dasGUN-System ausgewechselt und eine konditionierteGun zu FLASH geliefert. Die Arbeiten zum Einbau des

Abbildung 125: Schirmstation für das Tomographie-modul auf dem HEXAPOD: CAD – Modell und Foto.

Tomographiemoduls haben begonnen und der Einbaudes CDS-Boosters ist vorbereitet. In enger Zusammen-arbeit mir der Mechanischen Werkstatt erfolgten dieWartung und der Austausch von Diagnosekomponen-ten. Ebenso wurden Verbesserungen an der Laserbeam-line vorgenommen. Zur Verbesserung der Montage-bedingungen wurde ein auf der Kranbahn fahrbarerReinraum installiert

Weiterhin gehörten zu den Aufgaben für PITZ dieVerbesserung einzelner Komponenten während kurzerShutdownphasen und eine Reihe von operativen Aufga-

205

Page 6: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

ben, die teilweise auch mit der Konstruktion und demBau von speziellen Vorrichtungen verbunden waren.

Die Vakuumbetreuung während Runs und Shutdownswurde von der Gruppe sichergestellt. Das Max-Born-Institut wurde bei der Entwicklung und bei Tests vonLasern aktiv unterstützt, z. B. durch die Entwicklungvon Kristallkühlungen, den Aufbau von Pumpdioden-einheiten und der Entwicklung und Realisierung vonLasertischaufbauten.

PETRA III

Im Jahr 2009 wurden die Arbeiten an dem Multilayer-Monochromator weitergeführt. Dabei handelte es sichim Wesentlichen um die Konstruktion der Führungsein-heit und des Vakuumtanks. Erste Komponenten wurdenbestellt und geliefert, wie Führungsbahnen und ein 2.5 tschwerer Granitblock als Basis. Des weiteren wurdedie Infrastruktur für die Montage geschaffen, ein La-borraum eingerichtet und ein Reinraum für vakuumge-rechte Montagen installiert.

Astroteilchenphysik

Im Rahmen des CTA-Projektes wurden erste Design-überlegungen für ein 12-m-Spiegelteleskop zur Detek-tierung kosmischer Gamma-Strahlung angestellt. Eswurden FEM-Berechnungen zu verschiedenen Struk-turvarianten hinsichtlich Verformung und Schwin-gungsverhalten durchgeführt.

Es erfolgten Präzisierungen der Aufgabenstellung,Festlegung von Teilaufgaben und der Beginn der Zu-sammenarbeit mit Kollaborationspartnern sowie ersteKontakte mit Partnern aus der Industrie.

Zur Entwicklung des Antriebssystems wurde ein Motor-Test-Stand konstruiert und aufgebaut, für den wesentli-che Teile in Hamburg gefertigt wurden.

FLASH

Für die Entwicklung einer schnellen Schaltspiegelkam-mer wurden weitere Testaufbauten konstruiert und ge-

fertigt. Nach weitern FEM-Berechnungen wurde einePrototypkammer gebaut, die nach umfangreichen er-folgreichen Tests im HASYLAB in Betrieb gehen wird.Dies bildet die Grundlage für weitere Entwicklungenauf diesem Gebiet, da der Einsatz von schnellen Schalt-spiegelkammern zur Erhöhung der möglichen Nutzer-zahlen an Synchrotronanlagen wesentlich beitragenkann.

Mechanische Werkstattund Lehrwerkstatt

Die Mitarbeiter der Mechanischen Werkstatt waren beider Realisierung aller Themen aktiv beteiligt, wobei derPhotoinjektor-Teststand die meisten Ressourcen benö-tigte. Darüber hinaus wurden die Schaltspiegelkammerfür FLASH und Komponenten für PETRA III gefertigt.

Durch die Anschaffung einer Drahterodiermaschineist es nun möglich, auch komplizierte Teile für beideStandorte von DESY herzustellen.

Die Erweiterung der Schweißwerkstatt und der Aufbaueines Glühofens führten dazu, dass in der Mechani-schen Werkstatt die Ausbildung in der Wärmebehand-lung auch für die Lehrlinge aus dem Standort Hamburg

PITZ 51%PETRA III 12%

Monochromator4%

FLASH 8%

DEST Zeuthen intern 6%

Ausbildung 5%

Weiterbildung und Werkstattinfrastruktur

14%

Abbildung 126: Aktivitäten vom ZMW in 2009.

206

Page 7: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

mit durchgeführt wird; im Jahre 2009 waren es 10Lehrlinge für jeweils 7 Tage.

An der Realisierung der Aufgaben der ZMW waren dieAuszubildenden ab dem 3. Lehrjahr direkt beteiligt.

Neben der Ausbildung von je 3 Lehrlingen pro Jahr-gang wurden 2009 sechs Schülerpraktikanten sowiezwei Praktikantinnen im Grundstudium betreut. Bei derAbschlussprüfung der Lehrlinge wurden überdurch-schnittliche Ergebnisse erzielt, so dass 3 Auszubilden-den eine befristete Einstellung bei DESY angebotenwerden konnte. Auch nach dem geänderten Prüfungs-modus konnten die Lehrlinge ihre Prüfungen mit sehr„gut“ im praktischen Teil und mit „gut in“ der Theorieabschließen.

Gruppe DV

Die Gruppe DV ist verantwortlich für alle IT-relevantenServices am DESY-Standort Zeuthen. Dazu gehört u. a.die zentrale Versorgung der wissenschaftlichen undtechnischen Gruppen mit Rechenleistung und allge-meinen Diensten.

Das Aufgabenspektrum umfasst die folgenden Berei-che:

– Basisdienste, Verwaltung/SAP

– Netzwerk/technische Infrastruktur/Facilities

– Wissenschaftliches Rechnen

– Embedded Realtime Systems/Kontrollen

Das Jahr 2009 war geprägt durch eine signifikant er-weiterte Bereitstellung von Ressourcen in den Be-reichen Grid/Tier-2/National Analysis Facility undParallel-Computing. Damit verbunden war eine Er-höhung der Leistungsfähigkeit im Farm-Computingund der Massenspeicher-Anbindung, die eine ebenfallsstarke Erweiterung der Netzwerkinfrastruktur umfasste.Die Gruppe DV konnte auch im Berichtszeitraum dieerhöhten Anforderungen aufgrund hoher fachlicherKompetenz und großer Leistungsbereitschaft mit sehrguten Resultaten erfüllen.

Die traditionell enge Zusammenarbeit mit den wissen-schaftlichen und technischen Gruppen wurde auch imBerichtszeitraum durch regelmäßige Meetings mit denGruppen fortgesetzt.

Ein Schwerpunkt im Bereich technische Infrastruk-tur / Facilities war der Beginn des Ausbaus des RZ-Dachgeschosses.

Basisdienste

Die Basisdienste umfassen eine breite und tiefe Pa-lette von Dienstleistungen. Dies sind im Wesentlichen:Farm-Computing, Speichersysteme, Betriebssystemeund eine Reihe von allgemeinen Diensten wie UserSupport, Arbeitsplatzausstattung, Printing, ApplicationSupport, E-mail, CAD, Web Services, DNS, LDAP,Sicherheitsdienste, Desktop/Notebook Support, Be-schaffungen, Ausbildung, Backup/Tape Library.

Durch den starken Ausbau der IT-Infrastruktur hat sichim Berichtszeitraum in diesem Bereich die Grundlasterhöht.

Farm-Computing

Grundlage für das wissenschaftliche Rechnen am DESYStandort Zeuthen ist eine zentrale Compute-Farm, dieüber eine Fair-Scheduling-Ressourcenverteilung allenGruppen zur Verfügung steht. Als Batchsystem hat sichin einem längerem Zeitraum das System SUN GridEngine (SGE) bewährt. Im Berichtszeitraum wurdender Übergang auf die Version SGE 6.2 und die Ein-bindung von Parallel-Clustern weitgehend vorbereitetund die Compute-Ressourcen der Farm auf 750 CPU-Kerne erhöht. Zum Einsatz kamen Blades der Fa. Dell(M1000e Chassis mit je 16 × M610 Blade Servern), diemit Quad-Core CPUs ausgestattet sind. Auch im Jahr2009 war die zentrale Compute-Farm stark ausgelastet,Hauptnutzer waren die Experimente der Astroteilchen-physik (IceCube, CTA) und die Gruppen der Theorieeinschließlich NIC (John von Neumann Institute forComputing). Wie im Vorjahr hat die Gruppe PITZ(Photo Injector Teststand Zeuthen) ihren Anteil an derFarmnutzung weiter erhöht.

207

Page 8: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Speichersysteme

In Zeuthen kommen die Speichersysteme AFS (AndrewFile System), dCache (DESY/Fermilab) und Lustre(Opensource/SUN) zum Einsatz. AFS wird vorwiegendfür Nutzer-Home Verzeichnisse und Experimentdatenverwendet, dCache ausschließlich für Experimentda-ten und Lustre als schnelles Cluster-Filesystem fürdurchsatz-kritische Anwendungen. Hardware-Grund-lage aller Diskspeichersysteme in Zeuthen sind soge-nannte Scalable StorageUnits, die aus einem LinuxStorage Node einem oder mehreren JBOD-Plattensys-temen bestehen, die über SCSI-Schnittstellen mitein-ander verbunden sind. Storage Nodes sind Standard-Rackmount-Server, JBODs sind Platten-Geräte, in de-nen sich in der Regel 15 SAS oder SATA Platten befin-den. Die Installation, der Betrieb und die Überwachungder Storage-Units erfolgt automatisch. Die bisherigenErfahrungen mit dieser Storage-Architektur sind sehrgut, durch den flexiblen Ansatz lassen sich hohe Durch-satzraten und ein im Vergleich zu anderen Lösungensehr gutes Preis-Performance- und Preis-Kapazitäts-Verhältnis erzielen.

Während das Volumen des AFS Storage über das Jahr2009 weitgehend stagnierte, wurde eine weitere LustreInstanz von 50 TB für die Astroteilchenphysik in Be-trieb genommen. Diese erlaubt das Lesen und Schrei-ben von Daten mit bis zu 900MB/s. Die neue Instanzersetzt auch adäquat das Cluster-Filesystem der Fa. Pa-nasas, das nach bis zuletzt stabilem Betrieb Ende desJahres stillgelegt wurde. Wegen des deutlich günsti-geren Preis-Leistungs-Verhältnisses und äquivalenterLeistung wird Lustre auf Commodity Hardware einererneuten Beschaffung von Panasas Storage vorgezogen.So ist auch für den neuen Parallelcluster die Versorgungmit schnellem Massenspeicher auf dieser Basis vorge-sehen.

Der dCache-Storage wurde im Berichtszeitraum durchdie Installation mehrerer dedizierter DCache-Pools de-zentralisiert. Das betraf vorwiegend die LHC-GruppenATLAS und LHCb, bei denen durch die Separie-rung der Pools ein effizienterer Zugang zu den Da-ten erreicht wurde. Im Rahmen dieser Umstellung be-gann Ende 2008/Anfang 2009 frühzeitig der Upgrade

auf das neue auf PostGreSQL basierende dCache-Verwaltungssystem für Metadaten Chimera.

Die Gesamtplattenkapazität aller Filesysteme hat imJahr 2009 die 1-PByte-Grenze überschritten.

Das Zeuthener Backup-System läuft im zweiten Jahrnach der Umstellung vom EMC-Networker auf denIBM Tivoli Storage Manager sehr zuverlässig. DasBackup-Volumen hat sich im Vergleich zum Vorjahres-zeitraum um 60% erhöht. Der Routinebetrieb der Spie-gelung der Backup-Daten von Hamburg nach Zeuthenwurde durch die Erweiterung um zwei weitere LTO3-Laufwerke ausgebaut. Der Transfer der gespiegeltenDaten erfolgt über das FCIP (Fibre Channel over IP)-Protokoll über die 10-Gbps-Verbindung direkt von derHamburger Tape-Library auf die Laufwerke in Zeuthen.Für die Hamburger Backups stehen 27% der Tape-Library in Zeuthen zur Verfügung.

Betriebssysteme

Unix/Linux

Die Konsolidierung im Bereich Unix-Betriebssystemewurde durch die Migration einer weiteren Anzahl vonDiensten von Solaris auf Linux fortgeführt. Dazu ge-hören Mailserver, Zeitserver und DNS Server. Der An-teil virtueller Server an der Gesamtzahl nahm dabeiweiterhin zu. Um den Aufwand für die verbleiben-den Solaris Systeme zu senken, wurden neue Ma-nagementwerkzeuge entwickelt, deren Verwendungeine effizientere Administration der Solaris-Systemeerlaubt.

Der Linux-Support konzentrierte sich auch im Berichts-zeitraum auf die Breitstellung von Systemen auf Basisder freien Distribution Scientific Linux (SL). Scienti-fic Linux besteht aus den re-kompilierten Quellen derRedHat Enterprise Distribution und ist die weltweitbevorzugte Linux-Variante für fast alle großen Labo-ratorien in der Teichenergiephysik und wird haupt-sächlich von Entwicklern am Fermilab und am CERNgepflegt. Die Gruppe DV unterstützt Scientific Linuxdurch Bereitstellung der OpenAFS-Pakete. In Zeuthenumfasst der SL-Support Arbeitsplatz-Workstations, alle

208

Page 9: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Farm/Cluster/Grid-Computer, Server für Massenspei-cher und Server für allgemeine Dienste, insgesamt etwa700 Rechner. Die Umstellung der Linux-Systeme aufdie Version SL5 ist weitestgehend erfolgt. SL4 und SL3Systeme sind nur noch vereinzelt anzutreffen, müssenaufgrund von Anforderungen der Nutzer (insb. ATLAS,PITZ) jedoch weiterhin unterstützt werden.

MS WINDOWS

Zeuthener DV-Mitarbeiter arbeiten innerhalb der fürHamburg und Zeuthen einheitlichen WIN-Domain ander Gestaltung des Active Directory, der Installationvon Servern und Arbeitsplatzrechnern sowie der Be-reitstellung der Software über NetInstall. Am Standortwerden ca. 350 Windows Systeme betreut. Das betrifftServer, Terminalserver, Workstations und Notebooks,die ca. 600 registrierten Nutzern in den wissenschaftli-chen Forschergruppen, in den Entwicklungs- und Ver-waltungsgruppen zur Verfügung stehen. BesonderesAugenmerk wird bei den Systemen auf eine hohe Ver-fügbarkeit gelegt.

Allgemeine Dienste

Die Erweiterung der IT-Infrastruktur und die damit ver-bundene Komplexität erfordern ständige Anpassungen,Erweiterungen und Aktualisierung von Konfiguratio-nen und Werkzeugen im Monitoring und Alarming. Füreinen stabilen Betrieb der umfangreichen IT Technikspielt die Überwachung und Alarmierung eine immerstärkere Rolle. Mit dem Nagios Tool werden zurzeit6335 Dienste und Parameter überwacht.

Die Gruppe DV stellt den Service für die Software-Versionsverwaltung auf Basis des Systems Subversion(SVN) DESY weit zur Verfügung. Dieser Service wirdvon immer mehr Gruppen speziell aus den BereichenMaschinenphysik und Photonenphysik genutzt. Derzeitliegen mehr als 50 Repositories auf dem SubversionServer, hinter denen ca. 200 Softwareentwickler stehen.Das Webinterface zur Registrierung neuer Accountsund Repositories sowie zur SVN Administration wurdeweiter entwickelt, das Interface unterstützt nunmehr

drei Methoden zur Authentisierung der User-Kerberos,Zertifikate und Passworte.

Die Gruppe DV betreibt einen Mailserver zur Unter-stützung der Systemadministration und der Nutzer. DerMailservice wurde im Berichtszeitraum konzeptionellverändert. Der IMAP Server, welcher mit der UW-IMAP Software auf Solaris betrieben wurde, wurdeauf eine Linux Maschine mit der Software dovecotmigriert. Damit verbunden wurde die serverbasierteMailfilterung von procmail auf sieve umgestellt undInterfaces zur Pflege persönlicher Mailfilter angeboten.Der Umzug der ca. 500 Benutzer auf den neuen IMAPServer verlief reibungslos. Der Zugriff auf die Mails perIMAP ist wesentlich performanter geworden. Zum Jah-resende wurde auch die Software zur Mailbewertung(Spamtagging mit dem Filter-Programm Spamassassin)auf eine neue Version umgestellt, was zu einer deut-lichen Verringerung von Spam in den INBOXen derBenutzer geführt hat. Der Anteil von Spam-Mails amgesamten Mailaufkommen lag Ende 2009 bei ca. 92Prozent.

Die Hochleistungsdrucker wurden durch neue Technikersetzt. Um den Personalaufwand zu reduzieren, wur-den diese Drucker erstmalig mit entsprechendem Ser-vicevertrag gemietet. Dieses Modell wird im nächstenJahr weiter ausgebaut.

Die Wiki-Farm auf Basis von MoinMoin auf Linux-VMs wurde auch in diesem Berichtszeitraum erweitert.Inzwischen gibt es neben DVInfo – dem Wiki derGruppe DV – weitere 14 Wikis auf der Wiki-Farm inZeuthen. Hinzugekommen sind Wikis für die GruppenTHAT (Theoretische Astroteilchenphysik), CTA (Che-renkov Telescope Array), AT, LC (LCpositrons) sowieDV/IT (WINDOWS7).

Die Anzahl der PCs in Zeuthen hat sich auf 500 erhöht,davon sind ca. 250 PCs Arbeitsplatzrechner, auf denenLinux oder Windows installiert ist.

Verwaltung/SAP

Softwareapplikationen, die nur in der Verwaltung undnur auf wenigen Rechnern benötigt werden, werden

209

Page 10: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

durch Mitarbeiter von DV direkt installiert und betreut.Teilweise werden diese Applikationen über einen Ter-minalserver bereitgestellt. Dies betrifft Programme wieReisekostenabrechnung, Hostel, und Zoll.

Im Berichtszeitraum wurde durch die Gruppe DV derSAP-Betrieb am DESY in Zeuthen die inhaltliche SAP-Wartung, die Entwicklung der DESY-Anpassungen /Hilfen und der DESY weite Support für den Inter-net Transaction Server (ITS) sichergestellt. Zusätzlichwurde die Pflege der zentralen Webseiten der DESYweiten Verwaltung und der Webseiten einzelner Ver-waltungsgruppen fortgeführt.

Von der Gruppe DV wird die zentrale DatenbankZEUHA (MS Access) mit Daten zur Hard- und Soft-wareausstattung, zu Gebäuden, Gebäudemanagement,Personal, Ausländerbetreuung und weiteren Daten zurVerfügung gestellt, die insbesondere im Bereich Ver-waltung genutzt wird.

Weiterhin wurde am DESY in Hamburg die folgenden,ebenfalls auf MS Access basierenden Datenbanken be-treut: Direktionssitzungen, Kontaktdatenbank der PR-Abteilung innerhalb XFEL-Projektes.

Technische Infrastruktur

Netzwerk

In 2009 wurden die aktiven und passiven Netzwerk-komponenten bedarfsgerecht erweitert. Die flächen-deckende passive Verkabelungsinfrastruktur (LWL-Verkabelung geeignet für 10-Gigabit-Ethernet undhöher; Kat. 5/Kat. 6 Kupferverkabelung für 10/100/1000-Mbps-Ethernet) ist die Basis für den Betriebder aktiven Netzwerkkomponenten (3 zentrale Rou-ter, eine redundante Firewall, 55 Layer 2 Switche,diverse Terminal-Server). Gegenwärtig sind für denAnschluss von Endsystemen (Server, Desktops, Note-books, . . . ) insgesamt rund 3500 Ports (10/100- und10/100/1000-Ethernet) installiert (1100 im Data Cen-ter und 2400 im Access Bereich). Die Verbindungenzwischen Router und den Layer 2 Switchen sind im Re-gelfall als Ethernet-Channel ausgelegt (im Data CenterBereich: 20-Gigabit-Ethernet (2×10Gbps); im Access

Bereich: 2-Gigabit-Ethernet (2× 1Gbps); Gründe: hö-here Verfügbarkeit, höherer Durchsatz). Die externeNetzwerk-Anbindung besteht aus einer 10-GE-VPN-Verbindung zwischen den DESY-Standorten Hamburgund Zeuthen. Um die erforderliche Verfügbarkeit zugewährleisten, ist diese redundant (Optical Path Protec-tion) ausgelegt. Im Wireless LAN werden 40 AccessPoints betrieben, mit denen eine 80%-ige Abdeckungdes Standortbereiches gegeben ist. Für die Gewährleis-tung einer grundlegenden Netzsicherheit werden diedefinierten Sicherheitsregeln in der zentralen Firewallsowie in den entsprechenden IP-Access Listen auf allenVlan-Interfacen der Router gepflegt. Für Testzweckewurde 2009 ein 48-Port 1/10-Gigabit-Ethernet Switch(Kat. 6 konform, RJ45-Interface) beschafft. Um mögli-che Engpässe in der Datenbereitstellung zu vermeiden,sollen die Server perspektivisch anstelle mit 4 gebonde-ten 1-GE-Interfaces über 10-Gigabit-Ethernet Interfaceunter Verwendung einer Kat. 7 Verkabelungsinfrastruk-tur angeschlossen werden.

Telefonie-Dienst

Die Telefonie-Infrastruktur besteht gegenwärtig im We-sentlichen aus der zentralen Telefon-Anlage AvayaIntegral-33, dem Telefon-Netz, analoge/digitale Ne-benstellen (400 Telefone), einem Vermittlungsplatz,der integrierten DECT-Infrastruktur und Fax-Geräten.Um die Telefonanlage (Inbetriebnahme 1999) auch dienächsten Jahre stabil betreiben zu können, erfolgte imDez. 2009/Jan. 2010 ein System-Upgrade. Der Ruf-nummernplan der Nebenstellen sowie die wesentlichenimplementierten Dienstmerkmale sind mit den Be-treibern der TK-Anlagen in Hamburg abgestimmt undbeidseitig integriert worden. Damit ist ein hohes Maß anKompatibilität zum Vorteil der Benutzer gewährleistet.

Konferenzdienste

Konferenzdienste sind für die verteilte, DESY-interneund internationale Zusammenarbeit von grundlegenderund stetig wachsender Bedeutung. In Zeuthen werdenseit mehreren Jahren Tandberg Videokonferenzsys-teme der ersten Generation betrieben (Tandberg-2500,

210

Page 11: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Tandberg-880). Auf Grund der technischen Entwick-lung und daraus basierend zunehmender Protokoll-Inkompatibilitäten müssen diese Systeme ersetzt wer-den. Ende 2009 wurden von Hamburger und ZeuthenerKollegen gemeinsam umfangreiche Tests mit Tandberg-Systemen der neuesten Generation (FullHD Systeme)durchgeführt. Auf Grund der erzielten Ergebnissewerden in Zeuthen im Jan. 2010 vier FullHD fähigeTandberg-Systeme des Typs C20 in Betrieb genommen(zwei Stück zur Ablösung der Tandberg-2500, sowie jeein System zur Ausstattung des ATLAS-Kontrollrau-mes und des Seminarraumes 4). Damit werden in naherZukunft in Zeuthen 7 Raum-basierte Video-Konferenz-systeme betrieben. Daneben stehen in die HamburgerTelefonie-Infrastruktur eingebundene IP-Konferenz-telefone zur Verfügung, deren Zahl in 2009 bedarfsge-recht um 5 auf nunmehr 9 Stück erhöht wurde.

Technische Infrastruktur/Facilities

Aufgrund der ab 2009 geplanten Erweiterung der IT-Infrastruktur entstand ein erhöhter Platzbedarf, derinnerhalb des bestehenden Rechnerraums nicht rea-lisierbar war. Darüber hinaus war durch das histo-risch entstandene, inzwischen ineffizient arbeitendeLuft-Kühlungssystem das Ende der Kühlkapazität imRechnerraum erreicht und es nicht mehr möglich neueBlade-Server mit adäquater Kühlleistung zu versor-gen.

Im Jahre 2009 wurden der Ausbau des Dachgeschossesund die Neuinstallation einer Kälteversorgung geneh-migt. Nach Abschluss der Bauarbeiten wird ein neuer166 m2 großer Rechnerraum zur Verfügung stehen.Durch die neue, auf Freikühlung basierende Kältever-sorgung wird eine Unabhängigkeit von Fremdversor-gung, eine Erhöhung der Störungsfreiheit und eine si-gnifikante Erhöhung der Effizienz erreicht werden. DieGruppe DV war von Anbeginn aktiv an der Bauplanungund der Planung bzw. der Auswahl des Kühlsystemsbeteiligt.

Eine wichtige Komponente in der Kostenstruktur beimBetrieb eines Rechenzentrums ist der Verbrauch anEnergie. In Zusammenarbeit mit der Gruppe TI (Tech-

nische Infrastruktur) erfolgt seit dem Jahr 2007 einemonatliche Monitorierung des Energieverbrauchs allerIT-Anlagen im Rechenzentrum durch das Energiema-nagementsystem der Fa. Frako. Dies dient zur Kontrolledes Energieverbrauches, der Planung des zukünftigenBedarfes an Energieleistung und dem Erkennen vonEnergiesparpotentialen (z. B. durch Austausch veralte-ter Systeme).

Darüber hinaus wurde im Berichtszeitraum wurdendie Möglichkeiten der automatischen Überwachungder USV- und Klimasysteme erweitert. Dabei spieltedie Einbindung in die zentrale Überwachung der IT-Systeme auf Basis des Nagios Monitoring-Systemseine besondere Rolle.

Wissenschaftliches Rechnen

Grid, Tier-2, National Analysis Facility

Seit 2007 ist die Beteiligung an den DESY-weiten Grid-Projekten, vor allem den Tier-2-Zentren, ein fester Be-standteil des wissenschaftlichen Rechnens in Zeuthen.Im Berichtszeitraum wurden die Tier-2-Installationenfür die Experimente ATLAS, CMS und LHCb entspre-chend dem Memorandum of Understanding (MoU)der World Wide LHC Computing Grid Collabora-tion (WLCG) weiter ausgebaut. Die dCache Storage-Elemente für ATLAS und LHCb wurden auf 500 TBbzw. 100 TB erhöht.

Die Grid-Installation am DESY in Zeuthen umfassteim Berichtszeitraum 672 CPU-Kerne in den WorkerNodes. Wie gewohnt konnten alle Anforderungen imRahmen des WLCG in hoher Qualität erfüllt und einehohe Verfügbarkeit und Ausfallsicherheit erreicht wer-den. Im Berichtszeitraum wurden die Grid-Ressourcenanteilmäßig (entsprechend der WallclockTime) vonden VOs wie folgt genutzt: ATLAS 54%, LHCb 25%,H1 4%, Zeus: 4% Hermes: 4%, IceCube 4%, sonstige5%.

Nach einer Testphase im Vorjahr haben die deutschenGruppen des IceCube-Experimentes mit der Produktionauf dem Grid begonnen.

211

Page 12: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Das Betriebssystem der Grid Worker Nodes wurde aufScientific Linux 5 und ein großer Teil der LCG (LHCComputing Grid) Middleware glite auf die Version 3.2umgestellt.

Für die Experimente der Gittereichtheorie wurde derProduktionsbetrieb des Lattice Data Grids (LDG) fort-geführt. Der VO-Directory Service, der bisher durchdas Cluster-FileSystem der Fa. Panasas erfolgte, wurdedurch einen dedizierten Linux NFS Server ersetzt.

In Kollaboration mit der IT-Gruppe in Hamburg wirdam DESY die im Rahmen der strategischen Helmholtz-Allianz Physics at the Terascale installierte NationalAnalysis Facility (NAF) betrieben. Die NAF stellt de-dizierte Ressourcen für die nationalen Analysegruppender Experimente ATLAS, CMS, LHCb und ILC zurVerfügung. Sie ist insbesondere für Physiker an denUniversitäten von großer Bedeutung, an denen Res-sourcen nicht ausreichend zur Verfügung stehen bzw.an denen auf die für die Analyse notwendigen Datennicht lokal zugegriffen werden kann.

Hauptbestandteile der Computing-Infrastruktur in derNAF sind eine Grid-Farm basierend auf der LCG-Middleware, eine SGE Batch-Farm und dedizierteWorkgroup-Server für die Experimente für den in-teraktiven Zugang durch Mitglieder der einzelnen Phy-sikgruppen. Die Grid-Farm der NAF ist in die ent-sprechenden Tier-2 Zentren integriert. Als Massen-speichersysteme stehen in der NAF das AFS für Ho-meverzeichnisse und spezielle Experimentdaten sowiedCache basierte Grid-Storage-Elemente für den Zugriffauf globale Daten zur Verfügung. Zusätzlich wird überein paralleles auf Lustre basierendes Dateisystem einhoch-performanter Zugriff auf die Daten ermöglich.Die Workernodes sind an das Lustre-System lokal überDDR-Infiniband angeschlossen. Der Zugriff auf Ser-ver am jeweils anderen DESY Standort erfolgt überdie 10-Gbit-WAN-Verbindung zwischen Hamburg undZeuthen. Dies ist für die Nutzer – abgesehen von der na-turgemäß unterschiedlichen Performance – völlig trans-parent, ebenso wie der Zugriff auf alle anderen Ressour-cen der NAF. Diese befinden sich sämtlich in der DESYSubdomain naf.desy.de und sind grundsätzlich überdie DESY-Standorte Hamburg und Zeuthen verteilt.

Die Gruppe DV hat im interaktiven Teil der NAF grund-legende Verantwortlichkeiten übernommen. Das NAFUser Committee (NUC) vertritt die Anforderungen undAnliegen der Nutzer. Die Belange der Betreiber wurdenauch im Berichtszeitraum von zwei DV-Mitarbeiternvertreten. NAF: ATLAS 48%, ILC: 25%, LHCb: 16%,CMS: 11%

Unterstützung der Experimentgruppen

In Vorbereitung der Parallel-Cluster-Installation wur-den verschiedenen Prozessorarchitekturen mit typi-schen Parallel-Anwendungen aus der theoretischenAstroteilchenphysik getestet. Als Grundlage für dieErweiterung des europäischen Data Center für IceCubewurde ein transatlantischer Datentransfer zwischenZeuthen und dem zentralen IceCube Data Warehousein Madison (USA) installiert.

AFS/OSD

Zusammen mit dem Rechenzentrum Garching (RZG)wurde das AFS/OSD weiterentwickelt. Ziel ist die Er-weiterung der Funktionalität und die Erhöhung der Per-formance des OpenAFS um Object Storage Devices.Erste Gespräche mit den Hauptentwicklern von Open-AFS über die OSD Integration in ein zukünftiges Re-lease haben stattgefunden. In Zeuthen wurde im Rah-men einer Diplomarbeit mit dem Titel Policy driven useof object storage for AFS und durch eine längerfristigestudentische Tätigkeit ein wertvoller Beitrag für diesesProjekt geleistet.

Parallel Computing APE-QPACE-ILDG

Mitarbeiter der DV-Gruppe haben dieses Jahr zusam-men mit Forschern der Theorie-Gruppe sowie derElektronik-Gruppe eine führende Rolle bei der Ent-wicklung und dem Bau einer neuen Generation vonmassiv-parallelen Rechnern gespielt, die für Anwen-dungen der theoretischen Elementarteilchenphysik op-timiert sind. Die neue Rechnerarchitektur setzt aufdie Leistungsfähigkeit moderner Prozessoren mit ei-ner größeren Anzahl von Prozessorkernen. Dazu zählt

212

Page 13: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

auch PowerXCell 8i Prozessor von IBM, der über 8spezielle Kerne verfügt, die zusammen 100 GFlops proSekunde leisten. Um diese hohe Rechenleistung auchim Verbund von einer Vielzahl von Rechenknoten nut-zen zu können, werden diese Knoten bei dem neuenRechner QPACE (QCD Parallel Computing on Cell)durch ein speziell entwickeltes Netzwerk miteinanderverbunden.

Das QPACE Projekt wurde unter Federführung desSonderforschungsbereichs Hadron Physics from Lat-tice QCD (SFB TR55) der Universitäten Regensburgund Wuppertal zusammen mit IBM als industriellenPartner gestartet. Zu den weiteren Beteiligten gehörendas Forschungszentrum Jülich sowie Universitäten inFerrara und Milano (Italien). Im August 2009 wurdenjeweils 4 QPACE-Racks an den Standorten FZ Jü-lich und Universität Wuppertal aufgebaut. Jedes dieserRacks, welches aus jeweils 256 Knoten besteht, hateine Spitzenleistung von 26 TFlops.

Bei der zukünftigen Weiterentwicklung leistungsfähi-ger Rechnerinfrastrukturen spielt der Stromverbraucheine immer größere Rolle. Mit QPACE ist es gelun-gen, eine Architektur zu entwickeln, bei der die Zahl derFlops pro Watt deutlich erhöht werden konnte, d. h. derStromverbrauch pro Rechenoperation wurde gesenkt.Damit war es möglich, die Spitzenpositionen auf derGreen500 Liste zu erobern. Diese Liste bewertet dieinternational leistungsfähigsten Recher nach Effizienzbeim Stromverbrauch.

Hier sind aber weitere Anstrengungen notwendig, weilentsprechender Rechenzeitbedarf für die weitere Unter-suchung der Theorie der starken Wechselwirkung, derQuantenchromodynamik, (QCD), auf dem Gitter vor-handen ist. Die Gitter-QCD ist eine spezielle Formulie-rung dieser Theorie auf dem Gitter, die unter anderemnumerische Simulationen ermöglicht. Nur so könneneine Reihe physikalischer Observablen ab initio berech-net werden, was insbesondere dann von Interesse ist,wenn diese experimentell nicht oder nur sehr schwierigbestimmbar sind.

Für diese Forschung stellte DESY auch 2009 Rechen-kapazitäten auf Spezialrechnern vom Typ APEmille(bis Mitte 2009) und apeNEXT zur Verfügung. Diese

Rechner waren in Zusammenarbeit mit Forschern inItalien und Frankreich entwickelt worden. Die Rechen-leistung von etwa 2.5 TFlops wurde über das John vonNeumann Institut für Computing (NIC) Wissenschaft-lern internationaler Forschungsteams zur Verfügunggestellt.

Eine zentrale Rolle spielte DESY weiterhin beim Be-trieb und Ausbau des International Lattice Datagrids(ILDG). Über dieses Daten-Grid können Simulations-ergebnisse international ausgetauscht werden. DESYhat dazu zusammen mit dem Jülich SupercomputingCentre, dem Zuse-Institut Berlin, dem CC-IN2P3 Lyonund dem INFN Parma eines der im ILDG zusammen-geschlossenen regionalen Grids aufgebaut. Mitarbeitervon DESY waren 2009 im Vorstand des ILDG sowiezwei Arbeitsgruppen aktiv beteiligt.

Cluster-Computing

Die Rechner der APE-Serie werden zukünftig durchParallel-Cluster ersetzt. Zum Einsatz kommen Blade-Chassis der Fa. Dell vom Typ M1000e mit je 16 Blade-Servern M610. Die Blade-Server innerhalb eines Chas-sis sind miteinander über einen QDR-Infiniband-Switchvernetzt. In einer ersten Stufe werden 8 Blade-Chassismit einer Peak-Leistung von ca. 12 TFlops beschafft.Diese werden den NIC-Gruppen, der Gruppe Theore-tische Astroteilchenphysik und weiteren Interessentenmit Bedarf an Ressourcen für Parallelanwendungen imFair-Share-Betrieb innerhalb des SGE-Batchsystemszur Verfügung gestellt. Damit werden die am DESYverfügbaren Ressourcen für Parallelcomputing erheb-lich ausgebaut. Im Berichtszeitraum wurde mit derInstallation und dem Test der ersten Blade-Center be-gonnen.

Embedded Realtime Systems

Die Themengruppe ERS (Embedded Realtime Sys-tems) wurde innerhalb von DV 2008 gebildet unddurch Gastwissenschaftler verstärkt. Wie im vergange-nen Jahr lagen die Schwerpunkte der Arbeiten bei den 4großen Zeuthener Projekten, PITZ, MTF, CTA und dem

213

Page 14: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

hier entwickelten TINE basierten Videosystem. Das Vi-deosystem kommt inzwischen bei PITZ, im EMBL, imHASYLAB und bei den Vorbeschleunigern und derDiagnose-Beam-Line von PETRA III zum Einsatz. Diedabei neu entwickelten Java basierten Komponentenund die implementierte Kompatibilität der Datenstruk-turen der FLASH Videoarchitektur erlauben zukünftigauch den Einsatz an diesem Beschleuniger.

Für PITZ erfolgten die laufende Anpassung der Kon-trollsoftware, der Austausch wichtiger IT-Infrastrukturim Back-End-Bereich und die Vorbereitung für die imgroßen Shutdown geplanten Erweiterungen.

Die Kontrollen für den Modulator Teststand (MTF)wurden weiter vervollständigt. Parallel zur klassi-schen C++ basierten Kontrollsoftware fand die Neu-entwicklung der Bedienoberflächen auf Basis von Java-Komponenten statt.

Im CTA Experiment arbeiten Mitarbeiter mit an derMotorsteuerung der Teleskope und den Vorbereitungenzum AOC (Array Operation Center).

Neben den neuen Entwicklungen wurde durch DV undERS wesentlich zum Betrieb der Anlagen PITZ undMTF beigetragen. DV/ERS betreibt alle Computer-systeme und stellt alle Basisdienste vom Netzwerküber die Betriebssysteme bis hin zur Anwendersoft-ware (Kontrollen) zur Verfügung. WissenschaftlicheERS Mitarbeiter sind in den Schichtbetrieb der Anla-gen PITZ und MTF integriert und beteiligen sich an derPITZ-Rufbereitschaft.

Seminare, Vorlesungen, Ausbildung,Unterstützung von Veranstaltungen

Im Jahr 2009 wurden von der DV-Gruppe 29 Techni-sche Seminare mit 735 Teilnehmern organisiert.

Im Sommer 2009 wurde die jährliche Vorlesung fürStudenten der Technischen Fachhochschule Wildau mitden Themen Betriebssysteme (Linux, Windows) undRealtime-Computing fortgeführt. Im Rahmen der Vor-lesungen für die Zeuthener Sommerstudenten wurdeerneut eine zweiteilige Einführung in die effiziente

Nutzung der Computing Ressourcen, insbesondere un-ter Linux, präsentiert. Wie in den vergangenen Jahrenwurden auch im Berichtszeitraum verschiedene Schü-lerpraktika durch DV-Mitarbeiter in Zeuthen betreut.

Zusammen mit der Bildungskommission wurden zweiAbendvorträge mit Vortragendem in Zeuthen und zweiweitere Abendvorträge als Videoübertragung aus Ham-burg nach Zeuthen für ein breiteres Publikum aus derUmgebung organisiert und durchgeführt. Es ist geplant,diese Art von Abendveranstaltungen dauerhaft auch inZeuthen zu installieren.

Der Grundlagenvortrag Vorstellung des DESY und Ein-führung in die Hochenergiephysik wurde mehrfach vorSchülergruppen und einmal in Leipzig gehalten. Meh-rere Führungen für Schüler- und andere Gruppen wur-den sowohl im Rechenzentrum als auch im Bereich derPITZ-Anlage durchgeführt. Mitglieder der Gruppe DVhaben aktiv zum Erfolg des Tags der offenen Tür amDESY in Zeuthen beigetragen..

Experimente Support

Die Abteilung Experimente Support unterstützt dieWissenschaftler am Standort in Zeuthen bei der Präsen-tation und Kommunikation der Forschungsergebnisse,ist Kontaktstelle für die regionale Öffentlichkeit sowiedie Schnittstelle zur Abteilung Presse- und Öffentlich-keitsarbeit (PR) am Standort in Hamburg (siehe Presse-und Öffentlichkeitsarbeit).

Zur Wissenschaftskommunikation gehören in Zeuthendie Zusammenarbeit mit Gemeinden und Schulen,die Durchführung von Besichtigungen für Schulklas-sen und andere Interessengruppen, die Koordinationvon Schülerprojekten sowie die Durchführung vonLehrerfortbildungen (siehe Schülerlabore physik.begreifen), die Kontaktstelle für regionale Presse, dasBereitstellen von Informationsmaterial für einen brei-ten Interessentenkreis, das Repräsentieren des DESYStandortes in Zeuthen sowie das konzeptionelle Erar-beiten von Veranstaltungen und anderen Aktivitäten bishin zur inhaltlichen und gestalterischen Umsetzung.

214

Page 15: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Aktiver Austausch mit anderen Forschungseinrichtun-gen der Region findet über die AG Wissenschaftskom-munikation des Vereins proWissen Potsdam e.V. statt.Überregionale Beiträge aus der Gruppe sind unter ande-rem in der Weiterentwicklung, Wartung und Pflege derdeutschlandweiten Plattform www.teilchenphysik.de. zu sehen. Die Gruppe Experimente Support warKontakt in Zeuthen für Aktivitäten des Wissenschafts-jahres 2009 Forschungsexpedition Deutschland speziellfür Beiträge zum Science Express. Während des gesam-ten Berichtsjahres wurden Beiträge aus der Gruppe zumDESY-50-Jubiläum gemacht. Des Weiteren leistetenwir Input zur LHC-Kommunikation, bestimmt durchdie Vertretung in der German Executive LHC OutreachGroup GELOG und die Unterstützung des in Zeuthenansässigen GELOG-Koordinators (siehe Presse- undÖffentlichkeitsarbeit).

Die Schwerpunkte im physikalisch-technischen Sup-port und Service sind die Unterstützung der Experi-mente bei Mess- und Fertigungsprozessen, das Erfas-sung der Dosimeter der Mitarbeiter, die Wartung vonKopierer und Projektoren, die Ausleihe der Beamer, dasErstellen von Dokumentationen, die Betreuung auslän-discher Mitarbeiter, die Organisation und Koordinationbei Meetings und Workshops sowie die Ankündigungvon Standardseminaren.

Support und Service

Im Berichtsjahr haben zahlreiche Kollaborations-Mee-tings, Workshops und Konferenzen stattgefunden u. a.die CAPP Ende März, das IceCube Collaboration Mee-ting im September und die QCD Konferenz im Okto-ber. Aus der Gruppe wurden wesentliche Aufgaben zurKonferenzorganisation beigetragen wie die Gestaltungund Pflege der Webseiten, die Gestaltung sämtlicherMaterialien (Plakat, Dinnerkarten, Programme, Abbil-dung 127), die Registrierung und die Betreuung dergesamten Veranstaltungen bei der Durchführung sowiedas Fotografieren.

Des weitere wurden alle Forschungsprojekte in Zeuthenbei ihren Arbeitsprozessen durch die Gruppe Experi-

mente Support unterstützt in Bereichen wie Umsetzungneuer Webseiten, Fotografie, Bild- und Grafikbearbei-tung sowie Gestaltung von Vorträgen, Postern und Ver-öffentlichungen. Hervorzuheben sind gerade im Jahr2009 die Arbeiten auf dem Gebiet der gestalterischenTätigkeiten im neuen Corporate Design von DESY.Während des Berichtsjahres wurde das gesamte Infor-mationsmaterial sowie die kommunikative Posterseriein Zeuthen im neuen Layout und mit neuen Inhaltenerstellt. Das Angebot wurde mit neuen Materialien er-gänzt, die konzeptionell, inhaltlich und gestalterischneu erarbeitet wurden. Des Weiteren wurden anlässlichdes Tages der offenen Tür am 5. Juli 2009 sowohl dasFoyer als auch kleine Ausstellungen in der Experimen-tierhalle und im Rechenzentrum umgestaltet.

Abbildung 127: Für Veranstaltungen in Zeuthen wer-den Poster und Präsentationen durch die Gruppe Expe-rimente Support konzeptionell erarbeitet und gestaltet.

215

Page 16: Zeuthen - DESY · FEM-Analysen gestattet. Ein großer Vorteil dieses Pro-gramms ist die Möglichkeit, dass gleichzeitig mehrere Ingenieure oder Zeichner am gleichen Projekt arbeiten

Zeuthen

Technische Infrastruktur

Durch starke Deformierung der Ziegelwände des inden 50er Jahren gebauten Medienkanals wurde eineSanierung notwendig (Abbildung 128). In diesem Zu-sammenhang wurde er verbreitert und mehrere Versor-gungsleitungen erneuert. Jetzt ist auch eine Befahrungmit Schwerlastverkehr möglich geworden.

Mit Erweiterung der Rechnerkapazität wurde der Aus-bau des Rechnerbodens notwendig. Der Abriss desalten Daches erfolgte staub- und erschütterungsarmda der Rechnerbetrieb im Untergeschoss gewährleistetwerden musste. Der Boden wurde wegen der Belas-tung durch die neue Rechentechnik mit StahlträgernVerstärkt.

Da in der mechanischen Werkstatt die Wärmelast stetsdurch hocheffiziente Maschinen gestiegen ist, wurdeeine Klimaanlage eingebaut. Die Geräte der Haupthalle

Abbildung 128: Sanierung des Medienkanals.

konnten in der Zwischendecke des Meisterbüros vonaußen unsichtbar montiert werden. Durch ein Gewebe-schlauchsystem konnte eine gleichmäßige Verteilungder klimatisierten Raumluft erreicht werden.

216