Journal Club: ATLAS’a yeni bir dedektör: HGTD

Büyük Hadron Çarpıştırıcısı (LHC) geçtiğimiz günlerde ‘Run 2’ olarak adlandırılan çalışma dönemini arkada bırakarak çarpıştırmalara yaklaşık iki yıllık bir ara verdi. Bu esnada bir sonraki çarpıştırma dönemi Run 3 için hazırlıklar yapılıp, dedektörler ve hızlandırıcı kompleksinde bir takım değişim ve iyileştirilmelere gidilecek. Run 3’nin ardından ise yine büyük bir ara verilerek 2026’da LHC’nin birçok yönden toptan yükseltileceği High-Luminosity LHC (HL-LHC) dönemi başlayacak. HL-LHC’deki en belirgin değişikliklerden biri, nadir olayları görebilmek için arttırılan ‘luminosity’ (birim alandan birim zamanda geçen parçacık sayısı) ile birlikte, her bir demet geçişinde gerçekleşen ortalama çarpışma miktarı (‘pileup’) şu anki ortalama değer olan 50’den 200‘lere kadar çıkabilecek. Her çarpışmadan yüzlerce parçacık çıktığı düşünüldüğünde, tüm bu parçacıkların ayırt edilip ölçümlerinin yapılması deneyciler için ciddi bir problem teşkil ediyor. Bu hafta okuduğumuz makale ATLAS’a eklenmesi planlanan ve bu problemlere çözüm olabileceği düşünülen yeni bir dedektör önerisi ‘High Granularity Timing Detector’ (HGTD) hakkındaydı.

HL-LHC ile birlikte ATLAS’da epey büyük değişikliklere gidiliyor. Parçacıkların bıraktıkları izlerden momentumlarını ölçüp, tanımlamaya yardımcı olan iç dedektör tamamen değişiyor. Benim de çalışmalarında yer aldım Transition Radiation Tracker (TRT) dedektörü kaldırılıp, artık tüm iç dedektör silikon-yarı iletken dedektörlerden oluşacak. Bunlara ek olarak iç izleyici dedektörlerin ardına, makalede bahsi geçen ve henüz planlama aşamasında olan, yüksek eta değerlerinde (forward region – ileri bölgede) ölçümler yapacak HGDT dedektörü eklenecek. Bu dedektör demet hattında aynı noktada, fakat 30 ps (1ps saniyenin trilyonda biri!) mertebesinde farklı zamanlarda gerçekleşen çarpışmaları birbirinden ayırmayı hedefliyor. Böylece artan çarpışma sayısı ile, bir çarpışmadan gelen parçacıkların başka bir çarpışmadan gelenlerle karıştırmadan düzgün bir şekilde ölçümleri yapılmasına olanak sağlıyor.

Üstte, yatay eksende çarpışmaların, çarpışma ekseni olarak seçilen z eksenindeki konumları, dikey eksende ise çarpışmaların zamandaki dağılımları gösteriliyor. Örneğin kırmızı ile işaretlenmiş nokta, proton-proton çarpışması sonucu oluşan Z bozonunun elektron-poziton çiftine bozunduğu ve bizim ilgilendiğimiz bir olay olsun. Bu olayla ilişkili çarpışmanın iç dedektör’deki izlerden yola çıkılarak z = 40mm civarında olduğu hesaplanmış. Fakat dikey eksenden, aynı nokta civarında farklı zamanlarda gerçekleşen 5-6 çarpışma daha olduğu görülüyor. Elimizde çarpışmaların zaman üzerinden çözebilen bir dedektör olmadan bu çarpışmaları bu kadar kısa bir süre aralığında ayırt etmek mümkün değil. Bu beş çarpışmadan gelen tüm sinyaller sanki tek çarpışmadanmış gibi tespit edilip, ölçümlerde birçok hataya neden olacak. HGDT dedektörü barındırdığı ‘low gain avalance dedektör’ özelliği sayesinde aralarında 30 ps’a kadar zaman aralığı olan çarpışmaları birbirinden ayırabiliyor.

Dedektörün detayları makalede detaylı bir şekilde ele alınmış. Kısaca HGDT’nin eklenmesi durumunda dört temel konusunda performans artışı öngörülüyor:

  • Pileup jet’leri elimine etme: HGTD, ilgilenilen çarpışmaya ait olmayan, aynı noktada farklı zamanlarda gerçekleşen çarpışmalardan gelen jet’leri ayırt edip, jet enerjilerinin daha doğru ölçülmesine yol açacak, ki bu birçok fizik prosesini daha iyi analiz etmemizi sağlayacak. Ayrıca dedektörün ileri bölgerine düşen jet’ler için büyük bir ayırma gücü sağlayacak bu dedektör, bu tip sinyaller üreten ve kendi doktora çalışma alanım olan ‘Vector Boson Fusion/Scattering (VB/VBF)’ çalışmaları için de hayati bir öneme sahip olacak.
  • Ağır-quark’larla ilişkili jet’leri daha iyi tespit ve ayırt etme: b-quark gibi ağır kuarkların nispeten uzun ömürleri sayesinde dedektör içinde birkaç mm(!) ilerleyebilmelerinden yola çıkıp bu kuarkların oluşturdukları jetleri, zaman bilgisi ile daha iyi bir ayırt etme performansı elde edilecek.
  • Lepton izolasyonu: Çarpışma sonucu ortaya çıkan elektron/muon gibi leptonları, sonrasında parçacıkların bozunmalarından gelen leptonlardan ayırmayı sağlayacak
  • Luminosity ölçümü: Bir demet geçişi sırasında dedektörün elde ettiği sinyal sayısı, eğer dedektör tüm çarpışmaları çözebilirse tüm çarpışma sayısı ile doğru orantılı olacağından, HGTD’nin yüksek çözünürlüğü sayesinde LHC’nin anlık ‘luminosity’si hassas bir şekilde ölçülebilecek.

HL-LHC ile gelecek yüksek ‘luminosity’ ve daha fazla çarpışma sayısının bir bedeli olarak, dedektörlerimizi ve algoritmalarımızı bu şartlar için hazır hale getirmemiz gerekiyor. HGDT dedektörü eğer ATLAS’a eklenirse, makalede verilen birçok simulasyon ve test sonuçlarına göre aynı noktada fakat farklı zamanlarda gerçekleşen çarpışmaları ayırt etmek konusunda epey fark yaratacak gibi görünüyor.

Makaleyi okumak için: A High-Granularity Timing Detector in ATLAS : Performance at the HL-LHC

* Bu yazı, aynı zamanda lab üyesi A. Bayırlı’nın blogu Standart Model‘de de yayınlanmıştır.

Journal Club: Parçacık Fiziğinde ‘Derin Öğrenme’

Yapay Öğrenme (‘Machine Learning’) ve Derin Öğrenme (Deep Learning) gibi günümüzün en çok konuşulan veri analiz yöntemleri elbette parçacık fiziğinde de kendisine fazlasıyla yer buluyor. 1980’lerden itibaren özellikle ‘Boosted Decision Trees’ ve ‘Artificial Neural Network’ gibi yöntemlere birçok analizde yer veren öncü bir komünite için bu çok da şaşılacak bir durum değil aslında. Biz de bu hafta Journal Club’da geçtiğimiz haftalarda parçacık fiziğinde bu yöntemlerinn kullanımında önücülük yapan üç yazarın kaleme aldıkları bir makaleyi okumaya karar verdik:

Deep Learning and its Application to LHC Physics

Konuyu uzaktan takip edenler için ‘Derin Öğrenme’ ve çeşitli ‘Yapay Öğrenme’ yöntemleri arasındaki bağı açıklayarak başlayalım. Yapay Öğrenme sistemleri elinizdeki problemi veriden yola çıkarak, bir takım istatistiksel özellikleri elle kodlamadan sistemin ‘kendisinin öğrenmesi/keşfetmesi’ sayesinde çözüm getiren yöntemler bütünü olarak tanımlanabilir. Yapay Sinir Ağları, ‘Support Vector Machines’, ‘Logistic Regression’, ‘Clustering’ gibi birçok farklı yöntemleri içinde barındıran bu metodlar ailesininin bir üyesi olan ‘Yapay Sinir Ağları’ son dönemlerdeki bir takım algoritma iyileştirmeleri, GPU gibi grafik işlemcilerin bu alanda kullanımı ve birçok hazır yazılım kütüphanesinin kullanıma açılmasıyla büyük bir ivme kazandı. Bu gelişmeler sayesinde obje tanımlama, ses tanıma gibi birçok ‘örüntü tanıma’ probleminde eski yöntemlere açık ara fark atan bu yöntemler en temel hesaplama yapıları olan ve biyolojik sistemlerden ilham alınarak ‘nöron’ olarak adlandırılan yapılarının birbirine çok katmanlı, ‘derin’ bir ağ şeklinde (aşağıdaki görsel – Figure 1) bağlanmaları nedeniyle ‘Derin Öğrenme’ yöntemleri olarak anılır oldular.

Bu yöntemlerin karakteristik özellikleri, yapılarındaki katmanların hiyerarşik bir şekilde elinizdeki verinin içindeki özellikleri ‘şablonlar’ şeklinde kodluyor ve sonrasında hiç görmediği bir örnekle karşılaştığında bunlardan yola çıkarak üst seviyede bir performansla genelleştirebiliyor olması. Örneğin sisteme içerisindeki özellikleri öğrenip, sınıflandırma yapabilmesi için görsellerin piksel değerlerini girdi olarak verdiğinizde, ilk katmanda en basit yapılar olan ‘çizgi, köşe, kenar’ gibi yapıları, sonrasında temel geometrik şekilleri (kare, yuvarlak vb…), daha sonrasında ise daha üst gösterimler olan, eğer canlı görselleriyle, göz, kaş, burun gibi özellikleri kodluyor. Tüm bunları elinizdeki veriden ve bunlarla ilişkili olan ‘etiketlerden’ yola çıkarak, ağırlık (weight) dediğimiz milyonlarca sayıyı bir şekilde ‘öğrenerek’ yapıyor.

Derin öğrenmenin deneysel parçacık fiziği için ilgisi ise CERN’de LHC deneylerinde alınan verinin, tıpkı yukarıda bahsettiğimiz görüntü verileri ile benzer yapıda olması. En alt seviyede dedektör sinyallerinden, sonrasında adım adım oluşturulmuş parçacığın dedektörde izlediği ‘yol’ (track), kalorimetrede enerjisini bıraktığı hücreler bütünü (calorimetry cell clusters), ardından bu bilgilerden yola çıkarak oluşturulan elektron, muon, foton ya da içinde birçok hadron barındıran jet objeleri şeklinde elimizdeki veri tam anlamıyla ‘hiyerarşik’ bir yapı sergiliyor. Önerilen yöntemler, LHC verilerini bu tip algoritmalara verdiğimizde, verinin içindeki detaylardan yola çıkarak hedeflenen görevi yerine getirecek, elle kodlamaya gerek kalmadan bunu sadece veriyi kullanarak kendi öğrenebilecek bir sistem geliştirmek yönünde. Burada bahsi geçen hedefler örneğin iç dedektörde yüzlerce parçacığın izini birbirinden ayırmaktan, kalorimetrede bıraktığı enerji kalıntılarından parçacığı tanımlamaya (aşağıdaki görsel – Figure 3) ve aradığımız sinyali gürültüden ayırmaya kadar birçok zorlu problemi içeriyor.

Makalede bu problemleri ayrı ayrı başlıklar altında detaylıca ele alıp, her biri konusunda mevcut çalışmalara ve geliştirilen yöntemlere yer veriliyor. Yazarlar yöntemleri mevcut kullanılan yöntemlerle etkili bir şekilde karşılaştırıp derin öğrenme yöntemlerinin artı ve eksilerini beraber tartışıyorlar. Makalenin sonunda da bu alanın nereye doğru ilerlediğine dair güzel bir değerlendirme bölümü ile yazıyı sonlandırıyorlar.

Yapay Öğrenme ve Derin Öğrenme konuları son yıllarda CERN’le ilişkili birçok deneyde gerek dedektör seviyesinde gerekse de fizik analizlerinde kullanılmak üzere fazlasıyla dile getirilen, konuyla ilgili çalışma gruplarının kurulup her hafta düzenli seminer ve toplantıların yapıldığı bir noktaya doğru evrilmiş durumda. LHC yeni veriler almaya devam ettikçe ve çalışma performansı arttıkça bahsi geçen problemleri çözmek standart yöntemlerle gittikçe zorlaşırkan, önerilen derin öğrenme yöntemleri birçok kişiye göre fazlasıyla umut vaat ediyorlar. Makale bu alanı ve yöntemleri deneysel parçacık fiziği açısından keşfetmek için tam anlamıyla bir başucu kaynağı niteliği taşıyor.

* Bu yazı, aynı zamanda lab üyesi A. Bayırlı’nın blogu Standart Model‘de de yayınlanmıştır.

Journal Club: ATLAS’ın Higgs->b kuark + anti-b kuark Keşfi

Standart Model’de temel parçacıklar ‘spin’ olarak adlandırdığımız parçacığın iç-kuantum durumundan kaynaklı özelliğine göre iki farklı aileye ayrılıyorlar: Yarım kesirli değerler (1/2, 3/2 vb.) alan ‘fermiyonlar’ ve tam sayı değerler alabilen (0,1,2 vb.) ‘bozonlar’. Fermiyonlar evrendeki maddenin hemen hemen tümünü oluştururken bozonlar da bu parçacıklar arasındaki etkileşimlerin aktarımında, ‘kuvvet taşıyıcı parçacıklar’ olarak işlev görüyorlar. Bu resme en son eklenen Higgs bozonu ise tüm parçacıklarla etkileşerek onların kütle kazanmalarını sağlıyor. Bunu kabaca şöyle yapıyor: Standart Model’de örneğin yüklü parçacıkların birbiriyle etkileşimini ya da proton içindeki kuarkların güçlü etkileşimlerini kendisinden hareket denklemlerini çıkardığımız ‘Lagrangian’ adı verilen bir ifadede yazıyoruz.

Üstte: Standart Model ‘Lagrangian’ ifadesinin bir kahve bardağına sığan hali. Denklemin üçüncü ve dördüncü satırları Higgs alanı ve bu alanın diğer parçacıklarla etkileşimini tanımlıyor.

Bu ifadeye belirli simetrileri (yerel Gauge simetrileri) koruyacak terimler ekleyebiliyoruz, çünkü bu durumda, bu ifadeden elde edeceğimiz hareket denklemleri değişmez (invariant) kalıyor. Higgs parçacığı olmadan bu ifadeye yazacağımız ve parçacıkların kütleye sahip olmasını sağlayacak terimler bahsi geçen simetri koşullarını sağlamıyorlar. Fakat deneysel olarak biliyoruz ki elektro-zayıf etkileşimi taşıyan W-Z bozonları ve aynı zamanda tüm fermiyonlar kütleye sahipler ve bu özelliği Lagrangian’da matematiksel bir şekilde ifade etmemiz gerekiyor. Bunun için 1960’larda ortaya atılan Higgs (Braut-Englert) mekanizması bu sorunu çözmek için yeni bir kuantum alanı tanımlayıp, bu kuantum alanının en düşük enerjili ‘vakum durumunun’, alanın kendi simetrisini sağlamaması fikri ortaya atılıyor. Simetrideki bu bozulma (‘Elektro-zayıf simetri kırılması‘ olarak adlandırılan), Higgs alanın en temel durumunda sıfır olan ‘vakum beklenen değerini’ sıfırdan farklılaştırarak, Higgs ile etkileşecek parçacıklar için artık birer kütle terimi yazabilme olanağı yaratıyor. Bu durum yalnızca bosonlar için değil, çok benzer bir yaklaşımla fermiyonlar için de aranan kütle terimlerini yazılabilir hale geliyor. Bu terimlerin yazılabilmesi parçacıklara kütle özelliği vermenin yanında Higgs alanı ile etkileşmelerini de sağlıyor. Bu etkileşimin gücünü belirleyen ‘çiftlenim sabiti’ (coupling constant) ise doğrudan parçacığın kütlesiyle doğru orantılı bir büyüklük oluyor. Dolayısıyla, Higgs alanının gerçekten de parçacıklara kütle verdiğini test etmenin en güzel yolu da parçacıkların Higgs ile etkileşmelerini test etmekten geçiyor. Bu testler LHC’de oluşan Higgs parçacıkların beraber oluştukları parçacıkları veya Higgs’in bozunduğu parçacıkları inceleyerek mümkün olabiliyor. 

Solda: Standart Model’de parçacıkların Higgs bozonu ile etkileşim gücü (y-ekseni) parçacığın kütlesiyle (x-ekseni) doğru orantılı olduğunu tahmin ediyor (kesikli mavi çizgi). Dikey hata çizgileri ile birlikte verilen veriler (siyah noktalar) Standart Model tahmini ile epey uyumlu görünüyorlar (ATLAS Collaboration/ATLAS-CONF-2018-031).

Higgs bozonu ile parçacıkların etkileşimi kütleleriyle orantılı olduğundan, Higgs ile en çok, fermiyon ailesinden ağır kuarkların, örneğin ‘top’ ve ‘bottom’ kuarkların etkileşmesini bekliyoruz. Top kuarkı, ilginç bir şekilde çok ağır (Higgs’den de ağır) olduğundan enerji korunumu nedeniyle Higgs’in bozunması ile oluşturmak mümkün olmuyor. Onun yerine proton çarpışmalarında Higgs bozonu ile beraber oluşan top kuarklar incelenebiliyor ki bu yaz ATLAS ve CMS bu etkileşimi gözlediklerini ve gözlemlerin Standart Modelle tam olarak uyumlu olduğunu duyurmuştu.

Top’ın ardından kütle olarak sıradaki bottom kuark ise Higgs’in bozunabildiği kanallardan birini oluşturuyor; hatta tüm bozunumların %58’i bu kanalda gerçekleşiyor. (Higgs parçacığı yüksüz olduğundan oluşan bir bottom kuarkla birlikte anti-parçacığı olan bir de anti-bottom kuark(anti-b) oluşuyor.) Bu hafta Journal Club’da okuduğumuz makale de Ağustos ayında ATLAS deneyinin Higgs’in bir b bir de anti-b kuarka bozunduklarını gözlediğini duyurdukları makale:

Akla hemen şu soru gelebilir: Higgs madem en çok b ve anti-b kuarka bozunuyor, neden o halde en Higgs’in 2012’de keşfi bu kanalda yapılmadı da Higgs’in iki fotona (di-gamma) ve Z bozonları aracılığı ile 4 lepton’a bozunduğu kanalda gözlendi? Bunun cevabı, LHC’nin bir proton-proton çarpıştırıcısı olması sebebiyle proton çarpışmalarında proton içerisindeki kuark ve gluonların ‘güçlü etkileşimi’ sonucu oluşan yeni parçacıklarının çoğunun da quarklarla ilişkili olmasında yatıyor. Dolayısıyla Higgs’in bozunmasından gelen kuarkları bu kalabalığın içinde görebilmemiz epey güç.

Aradığımız sinyal ile benzer özelliklere sahip fakat başka proseslerden gelen sinyallere ‘arkaplan’ (background) diyoruz. Analiz sırasında, aranan sinyali bulabilmek için arkaplanı bir şekilde iyi tanımlayıp elimine etmenin yolunu bulmak gerekiyor. Bir diğer konu; Higgs’in b-quarklara bozunumunu doğrudan gözlemek yerine, çarpışmalar sonucu oluşan ve dedektör içinde tespit edilmeleri daha kolay olan elektron, muon gibi leptonlara bozunan bir vektör bozonu (Z ya da W) ile birlikte oluşan Higgs parçacıklarına odaklanmak, her ne kadar elimizdeki olay sayısını azaltsa da en azından sinyali bulmak konusunda işimizi kolaylaştırıyor. Bu çalışmada da tam olarak bu şekilde pp->VH prosesleri inceleniyor (V: vektör bozon, H: Higgs).

Üstte: Solda, çarpışan protonların içindeki iki kuarkın bir vektör bozunumu ile etkileşip, bu vektör bozonunun bir Higgs bozonu yayımlaması ve ardından Higgs’in b ve anti-b kuarklarına bozunumunu gösteren Feynman diyagramı. Diyagramı zamanın soldan sağa doğru ilerlediğini düşünerek okuyabilirsiniz. Bu tip diyagramlar etkileşim süreçlerini görselleştirmenin ötesinde Feynman’a borçlu olduğumuz dahiyane hesaplama yöntemlerine de izin veriyor. (Kaynak: Nature)

Bu makalede de Higgs’in bir vektör bozon ile birlikte oluşup, sonrasında Higgs’in b-anti-b qurklara, vektör bozonun da leptonlara bozunması gözlenerek alınan verilerin Standart Model ile uyumlu olup olmadığı test edilmeye çalışılıyor.

Üstte: ATLAS dedektöründe proton proton (pp) çarpışmaları sonucunda ortaya çıkan Higgs(H)’in b ve anti-b quarklarına bozunumu sonucu ortaya çıkan iki jet (açık mavi koniler – sağda) ve Higs’in yanında ortaya çıkan W bozonunun bozunması ile ortaya çıkan muon’un bıraktığı izler (kırmızı) görülüyor. Muon ile birlikte oluşan muon nötrinosu dedektörle etkileşmeden geçip gittiği için görüntüde onun izi görülmüyor. Sol taraftaki görüntü, dedektörü üç boyutlu olarak gösterirken, sağ alttaki ise parçacıkların çarpıştıkları eksene dik düzlemi gösteriyor. Her iki görüntüde de açık yeşil renkler parçacıkların elektromanyetik kuvvet ile etkileşip enerjilerini bıraktıkları elektromanyetik kalorimetre sinyallerini; sarı ile göterilenler de güçlü kuvvet ile etkileşip enerjilerini bıraktıkları ‘hadronik kalorimetre’ sinyallerini gösteriyor. Parçacıkların dedektörde bıraktıkları bu izlerden parçacıklar tanımlanıp, momentum ve enerji ölçümleri gerçekleştiriliyor.

Analiz iki farklı yöntemle gerçekleştiriliyor. Birinde Higgs sinyalini arkaplan sinyalinden ayırt edebilmek için Boosted Decision Trees (BDT) yöntemleri kullanıyor. Bu yöntemler, elinizdeki verinin belirli özelliklerini kullanıp (örneğin bir olaydaki parçacıkların momentum değerleri, enerjileri vs…) olayları sınıflandırabilmenizı sağlayan birer ‘machine learning’ yöntemleri. İkinci yöntemde ortaya çıkan b-quarkların oluşturdukları jet yapılarını bir araya getirerek ‘invariant mass’ değeri elde ediliyor. Elimizdeki jetler eğer Higgs bozunumu sonucunda oluşmuş quarklardan geliyorsa gözlenen olay sayısında Higgs kütlesi civarında bir ‘artış’ görülmesi bekleniyor.

Sonuç olarak BDT ve ‘invariant mass’ yöntemlerinin her ikisiyle de elde edilen sonuçlar, Higgs’in b ve anti-b kuarklarına bozunduklarını; üstelik bozunma oranının yani bu şekilde beklenen olay sayısının Standart Model’in tahmin ettiği değerlerle belirli bir hata payı içinde tutarlı olduğunu gösteriyor.