Journal Club: ATLAS’a yeni bir dedektör: HGTD

Büyük Hadron Çarpıştırıcısı (LHC) geçtiğimiz günlerde ‘Run 2’ olarak adlandırılan çalışma dönemini arkada bırakarak çarpıştırmalara yaklaşık iki yıllık bir ara verdi. Bu esnada bir sonraki çarpıştırma dönemi Run 3 için hazırlıklar yapılıp, dedektörler ve hızlandırıcı kompleksinde bir takım değişim ve iyileştirilmelere gidilecek. Run 3’nin ardından ise yine büyük bir ara verilerek 2026’da LHC’nin birçok yönden toptan yükseltileceği High-Luminosity LHC (HL-LHC) dönemi başlayacak. HL-LHC’deki en belirgin değişikliklerden biri, nadir olayları görebilmek için arttırılan ‘luminosity’ (birim alandan birim zamanda geçen parçacık sayısı) ile birlikte, her bir demet geçişinde gerçekleşen ortalama çarpışma miktarı (‘pileup’) şu anki ortalama değer olan 50’den 200‘lere kadar çıkabilecek. Her çarpışmadan yüzlerce parçacık çıktığı düşünüldüğünde, tüm bu parçacıkların ayırt edilip ölçümlerinin yapılması deneyciler için ciddi bir problem teşkil ediyor. Bu hafta okuduğumuz makale ATLAS’a eklenmesi planlanan ve bu problemlere çözüm olabileceği düşünülen yeni bir dedektör önerisi ‘High Granularity Timing Detector’ (HGTD) hakkındaydı.

HL-LHC ile birlikte ATLAS’da epey büyük değişikliklere gidiliyor. Parçacıkların bıraktıkları izlerden momentumlarını ölçüp, tanımlamaya yardımcı olan iç dedektör tamamen değişiyor. Benim de çalışmalarında yer aldım Transition Radiation Tracker (TRT) dedektörü kaldırılıp, artık tüm iç dedektör silikon-yarı iletken dedektörlerden oluşacak. Bunlara ek olarak iç izleyici dedektörlerin ardına, makalede bahsi geçen ve henüz planlama aşamasında olan, yüksek eta değerlerinde (forward region – ileri bölgede) ölçümler yapacak HGDT dedektörü eklenecek. Bu dedektör demet hattında aynı noktada, fakat 30 ps (1ps saniyenin trilyonda biri!) mertebesinde farklı zamanlarda gerçekleşen çarpışmaları birbirinden ayırmayı hedefliyor. Böylece artan çarpışma sayısı ile, bir çarpışmadan gelen parçacıkların başka bir çarpışmadan gelenlerle karıştırmadan düzgün bir şekilde ölçümleri yapılmasına olanak sağlıyor.

Üstte, yatay eksende çarpışmaların, çarpışma ekseni olarak seçilen z eksenindeki konumları, dikey eksende ise çarpışmaların zamandaki dağılımları gösteriliyor. Örneğin kırmızı ile işaretlenmiş nokta, proton-proton çarpışması sonucu oluşan Z bozonunun elektron-poziton çiftine bozunduğu ve bizim ilgilendiğimiz bir olay olsun. Bu olayla ilişkili çarpışmanın iç dedektör’deki izlerden yola çıkılarak z = 40mm civarında olduğu hesaplanmış. Fakat dikey eksenden, aynı nokta civarında farklı zamanlarda gerçekleşen 5-6 çarpışma daha olduğu görülüyor. Elimizde çarpışmaların zaman üzerinden çözebilen bir dedektör olmadan bu çarpışmaları bu kadar kısa bir süre aralığında ayırt etmek mümkün değil. Bu beş çarpışmadan gelen tüm sinyaller sanki tek çarpışmadanmış gibi tespit edilip, ölçümlerde birçok hataya neden olacak. HGDT dedektörü barındırdığı ‘low gain avalance dedektör’ özelliği sayesinde aralarında 30 ps’a kadar zaman aralığı olan çarpışmaları birbirinden ayırabiliyor.

Dedektörün detayları makalede detaylı bir şekilde ele alınmış. Kısaca HGDT’nin eklenmesi durumunda dört temel konusunda performans artışı öngörülüyor:

  • Pileup jet’leri elimine etme: HGTD, ilgilenilen çarpışmaya ait olmayan, aynı noktada farklı zamanlarda gerçekleşen çarpışmalardan gelen jet’leri ayırt edip, jet enerjilerinin daha doğru ölçülmesine yol açacak, ki bu birçok fizik prosesini daha iyi analiz etmemizi sağlayacak. Ayrıca dedektörün ileri bölgerine düşen jet’ler için büyük bir ayırma gücü sağlayacak bu dedektör, bu tip sinyaller üreten ve kendi doktora çalışma alanım olan ‘Vector Boson Fusion/Scattering (VB/VBF)’ çalışmaları için de hayati bir öneme sahip olacak.
  • Ağır-quark’larla ilişkili jet’leri daha iyi tespit ve ayırt etme: b-quark gibi ağır kuarkların nispeten uzun ömürleri sayesinde dedektör içinde birkaç mm(!) ilerleyebilmelerinden yola çıkıp bu kuarkların oluşturdukları jetleri, zaman bilgisi ile daha iyi bir ayırt etme performansı elde edilecek.
  • Lepton izolasyonu: Çarpışma sonucu ortaya çıkan elektron/muon gibi leptonları, sonrasında parçacıkların bozunmalarından gelen leptonlardan ayırmayı sağlayacak
  • Luminosity ölçümü: Bir demet geçişi sırasında dedektörün elde ettiği sinyal sayısı, eğer dedektör tüm çarpışmaları çözebilirse tüm çarpışma sayısı ile doğru orantılı olacağından, HGTD’nin yüksek çözünürlüğü sayesinde LHC’nin anlık ‘luminosity’si hassas bir şekilde ölçülebilecek.

HL-LHC ile gelecek yüksek ‘luminosity’ ve daha fazla çarpışma sayısının bir bedeli olarak, dedektörlerimizi ve algoritmalarımızı bu şartlar için hazır hale getirmemiz gerekiyor. HGDT dedektörü eğer ATLAS’a eklenirse, makalede verilen birçok simulasyon ve test sonuçlarına göre aynı noktada fakat farklı zamanlarda gerçekleşen çarpışmaları ayırt etmek konusunda epey fark yaratacak gibi görünüyor.

Makaleyi okumak için: A High-Granularity Timing Detector in ATLAS : Performance at the HL-LHC

* Bu yazı, aynı zamanda lab üyesi A. Bayırlı’nın blogu Standart Model‘de de yayınlanmıştır.

Journal Club: Parçacık Fiziğinde ‘Derin Öğrenme’

Yapay Öğrenme (‘Machine Learning’) ve Derin Öğrenme (Deep Learning) gibi günümüzün en çok konuşulan veri analiz yöntemleri elbette parçacık fiziğinde de kendisine fazlasıyla yer buluyor. 1980’lerden itibaren özellikle ‘Boosted Decision Trees’ ve ‘Artificial Neural Network’ gibi yöntemlere birçok analizde yer veren öncü bir komünite için bu çok da şaşılacak bir durum değil aslında. Biz de bu hafta Journal Club’da geçtiğimiz haftalarda parçacık fiziğinde bu yöntemlerinn kullanımında önücülük yapan üç yazarın kaleme aldıkları bir makaleyi okumaya karar verdik:

Deep Learning and its Application to LHC Physics

Konuyu uzaktan takip edenler için ‘Derin Öğrenme’ ve çeşitli ‘Yapay Öğrenme’ yöntemleri arasındaki bağı açıklayarak başlayalım. Yapay Öğrenme sistemleri elinizdeki problemi veriden yola çıkarak, bir takım istatistiksel özellikleri elle kodlamadan sistemin ‘kendisinin öğrenmesi/keşfetmesi’ sayesinde çözüm getiren yöntemler bütünü olarak tanımlanabilir. Yapay Sinir Ağları, ‘Support Vector Machines’, ‘Logistic Regression’, ‘Clustering’ gibi birçok farklı yöntemleri içinde barındıran bu metodlar ailesininin bir üyesi olan ‘Yapay Sinir Ağları’ son dönemlerdeki bir takım algoritma iyileştirmeleri, GPU gibi grafik işlemcilerin bu alanda kullanımı ve birçok hazır yazılım kütüphanesinin kullanıma açılmasıyla büyük bir ivme kazandı. Bu gelişmeler sayesinde obje tanımlama, ses tanıma gibi birçok ‘örüntü tanıma’ probleminde eski yöntemlere açık ara fark atan bu yöntemler en temel hesaplama yapıları olan ve biyolojik sistemlerden ilham alınarak ‘nöron’ olarak adlandırılan yapılarının birbirine çok katmanlı, ‘derin’ bir ağ şeklinde (aşağıdaki görsel – Figure 1) bağlanmaları nedeniyle ‘Derin Öğrenme’ yöntemleri olarak anılır oldular.

Bu yöntemlerin karakteristik özellikleri, yapılarındaki katmanların hiyerarşik bir şekilde elinizdeki verinin içindeki özellikleri ‘şablonlar’ şeklinde kodluyor ve sonrasında hiç görmediği bir örnekle karşılaştığında bunlardan yola çıkarak üst seviyede bir performansla genelleştirebiliyor olması. Örneğin sisteme içerisindeki özellikleri öğrenip, sınıflandırma yapabilmesi için görsellerin piksel değerlerini girdi olarak verdiğinizde, ilk katmanda en basit yapılar olan ‘çizgi, köşe, kenar’ gibi yapıları, sonrasında temel geometrik şekilleri (kare, yuvarlak vb…), daha sonrasında ise daha üst gösterimler olan, eğer canlı görselleriyle, göz, kaş, burun gibi özellikleri kodluyor. Tüm bunları elinizdeki veriden ve bunlarla ilişkili olan ‘etiketlerden’ yola çıkarak, ağırlık (weight) dediğimiz milyonlarca sayıyı bir şekilde ‘öğrenerek’ yapıyor.

Derin öğrenmenin deneysel parçacık fiziği için ilgisi ise CERN’de LHC deneylerinde alınan verinin, tıpkı yukarıda bahsettiğimiz görüntü verileri ile benzer yapıda olması. En alt seviyede dedektör sinyallerinden, sonrasında adım adım oluşturulmuş parçacığın dedektörde izlediği ‘yol’ (track), kalorimetrede enerjisini bıraktığı hücreler bütünü (calorimetry cell clusters), ardından bu bilgilerden yola çıkarak oluşturulan elektron, muon, foton ya da içinde birçok hadron barındıran jet objeleri şeklinde elimizdeki veri tam anlamıyla ‘hiyerarşik’ bir yapı sergiliyor. Önerilen yöntemler, LHC verilerini bu tip algoritmalara verdiğimizde, verinin içindeki detaylardan yola çıkarak hedeflenen görevi yerine getirecek, elle kodlamaya gerek kalmadan bunu sadece veriyi kullanarak kendi öğrenebilecek bir sistem geliştirmek yönünde. Burada bahsi geçen hedefler örneğin iç dedektörde yüzlerce parçacığın izini birbirinden ayırmaktan, kalorimetrede bıraktığı enerji kalıntılarından parçacığı tanımlamaya (aşağıdaki görsel – Figure 3) ve aradığımız sinyali gürültüden ayırmaya kadar birçok zorlu problemi içeriyor.

Makalede bu problemleri ayrı ayrı başlıklar altında detaylıca ele alıp, her biri konusunda mevcut çalışmalara ve geliştirilen yöntemlere yer veriliyor. Yazarlar yöntemleri mevcut kullanılan yöntemlerle etkili bir şekilde karşılaştırıp derin öğrenme yöntemlerinin artı ve eksilerini beraber tartışıyorlar. Makalenin sonunda da bu alanın nereye doğru ilerlediğine dair güzel bir değerlendirme bölümü ile yazıyı sonlandırıyorlar.

Yapay Öğrenme ve Derin Öğrenme konuları son yıllarda CERN’le ilişkili birçok deneyde gerek dedektör seviyesinde gerekse de fizik analizlerinde kullanılmak üzere fazlasıyla dile getirilen, konuyla ilgili çalışma gruplarının kurulup her hafta düzenli seminer ve toplantıların yapıldığı bir noktaya doğru evrilmiş durumda. LHC yeni veriler almaya devam ettikçe ve çalışma performansı arttıkça bahsi geçen problemleri çözmek standart yöntemlerle gittikçe zorlaşırkan, önerilen derin öğrenme yöntemleri birçok kişiye göre fazlasıyla umut vaat ediyorlar. Makale bu alanı ve yöntemleri deneysel parçacık fiziği açısından keşfetmek için tam anlamıyla bir başucu kaynağı niteliği taşıyor.

* Bu yazı, aynı zamanda lab üyesi A. Bayırlı’nın blogu Standart Model‘de de yayınlanmıştır.