Repository logo
 

Monografie naukowe (Scientific monographs)

Permanent URI for this collection

Browse

collection.page.browse.recent.head

Now showing 1 - 20 of 30
  • Item
    Insight into phase situation and kinetics of cold- and melt crystallization processes of chiral smectogenic liquid crystals
    (Institute of Nuclear Physics Polish Academy of Sciences, 2023) Drzewicz, Anna
    Liquid crystals are made up of molecules with an anisotropic shape, which means they have various properties along different directions. This makes them distinct from isotropic liquids because they tend to align themselves with specific rules and create intermediate phases called mesophases of various long-range degrees of spatial order of molecules. As they are cooled down, these partially ordered phases can either become glassy (vitrify) or form crystals. On the other hand, when liquid crystals are heated from a glassy state, they experience a phenomenon known as cold crystallization. This work discusses the studies of the phase situation and the kinetics of non-isothermal and isothermal cold- and melt crystallization of chiral smectogenic liquid crystals belonging to the 3FmX1PhX2r.s series. Compounds under study exhibit differences in the molecular structure, for instance in the terminal non-chiral (‘m’ = 2-7) and chiral (‘r’ = 4-7, ‘s’ = 1, 2) chain lengths, and the fluorosubstitution of the aromatic molecular core (‘X1’, ‘X2’ = H, F). It is found that individual elements of the molecular structure of 3FmX1PhX2r.s influence to varying degrees the occurrence of liquid crystal phases or the nature of both crystallization and vitrification processes.
  • Item
    Neutrino-Nucleus Cross-Section Measurements in the Near Detector of the T2K Experiment
    (Institute of Nuclear Physics Polish Academy of Sciences, 2022) Wąchała, Tomasz
    The studies of neutrino-nucleus cross sections play an important role in better understand- ing the mechanisms that rule the neutrino interactions and in more precise measurements of the neutrino oscillation parameters. This monograph is focused on the measurements of neutrino cross sections from the accelerator neutrino beam with the mean energy of 0.7 GeV using the near detector of the T2K experiment. The monograph describes in detail the models of neutrino-nucleus interactions in this energy regime that are currently on the market. It also gives an overview of the world experimental results and outlines the prospects for future cross-section measurements. An entire chapter of this monograph is dedicated to the analyses published by the T2K experiment. The monograph contains a description of the T2K experiment, including the experi- mental setup, research program, and characterization of the Monte Carlo simulation and event reconstruction. A separate chapter is dedicated to the detailed explanation of the techniques and methods used in the cross-section measurements in T2K with a special emphasis on the maximum likelihood approach. Two analyses describing the charged current single charged pion production (CC1π) on water and charged current with no pions on lead and carbon are reported. The measured CC1π total flux-integrated cross section is compatible with Monte Carlo predictions from the NEUT generator. GENIE predictions are within two standard deviations. Further extensions of these studies including the enlarged phase space of the measurement and using more data should allow analysers to compute a differential cross section and minimize the model dependence.
  • Item
    PARIS White Book
    (Institute of Nuclear Physics Polish Academy of Sciences, 2021) Camera, Franco; Maj, Adam
    PARIS is a collaborative international project (http://paris.ifj.edu.pl) to construct and operate a novel gamma-ray calorimeter, which profits wholly or in part from employment of novel, advanced scintillator materials, such as Lanthanum Bromide, and which should have performances superior to any other existing scintillator calorimeter. In fact, PARIS is eminently portable and could be used at different international facilities using both stable or radioactive beams. The present report, the PARIS White Book, is intended to provide a general description of the performances of the PARIS array, of the different laboratories which could, in the next years, host it and of the physics cases that can be addressed by the PARIS array. The presented physics cases are obviously not exhaustive. They simply give some examples where the physical information, provided by the PARIS array, is understood to be the key point for the success of the measurement. As the physics cases will also depend on the detector arrays which will be coupled to PARIS in the future years, and on the beams (stable or radioactive) provided by the hosting laboratory, this list of possible experiments is expected to increase with the years. It is the intention of this White Book to support the collaboration and help to decide on the future PARIS campaigns, as well as on its promising enhancement to 4π.
  • Item
    White Book on the Future of Low-Energy Nuclear Physics in Poland and the Development of the National Research Infrastructure
    (Środowiskowe Laboratorium Ciężkich Jonów, 2020) Maj, Adam; Rusek, Krzysztof; Bednarczyk, Piotr; Dudek, Jerzy; Fornal, Bogdan; Kicińska-Habior, Marta; Kistryn, Stanisław; Lewitowicz, Marek; Matulewicz, Tomasz; Nazarewicz, Witold; Satuła, Wojciech; Skalski, J.; Srebrny, Janusz; Stephan, E.; Trzaska, Władysław H.
    This Report presents the status and perspectives of low-energy nuclear physics research in Poland. It has become a tradition that the society of Polish nuclear physicists periodically summarizes the community's achievements and draws up plans for the future. The very first such reports was prepared by a team of scientists led by Professor Jerzy Jastrzębski and publisched by the Polish Nuclear Physisc Network under the title "Nuclear Physics in Poland 1996-2006". The next one, entitled "Long-Range Plan of Polish Nuclear Physics in the years 2007-2016" was prepared by the Commission of Nuclear Physics, the Advisory Board of the Narional Atomic Energy Agency of Poland. The team of editors was led by Professor Jan Styczeń. A few years latter, this Commission, led this time by Professor Krzysztof Rusek, published the "Long-Range Plan of Polish Nuclear Physics and Nuclear Methods, 2010-2020".
  • Item
    Photoproduction cross section measurements in ultra-peripheral Pb-Pb and p-Pb collisions at the LHC with ALICE
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Mayer, Christoph
    Ultra-peripheral collisions of ultra-relativistic lead ions are a tool for studying g-nucleus or gg interactions at the LHC. Beams of lead ions at the LHC are a source of intense photon fluxes with very high energies, due to the effect of Lorentz contraction and the fact that the equivalent flux of almost real photons around lead ions is proportional to the square of their charge. Since in ultra-peripheral collisions the impact parameter is greater than the sum of the nuclear radii, hadronic interactions are suppressed and electromagnetic interactions dominate. Experimentally, ultra-peripheral collision events are characterized by very low multiplicities in the central rapidity region and rapidity gaps outside central rapidity. In this thesis, photoproduction cross section measurements performed by ALICE (A Large Ion Collider Experiment) in ultra-peripheral collisions are summarized. After a review of ultraperipheral physics in this section, the sub-detectors of ALICE used in ultra-peripheral analyses are described in section 2. Section 3 contains a review of ALICE measurements of r0 photoproduction in Pb-Pb collisions at psNN = 2:76 and 5:02 TeV, and section 4 summarizes ALICE measurements of continuum γγ → e+e- photoproduction in Pb-Pb collisions at psNN = 2:76 TeV. ALICE measurements of J/y photoproduction in Pb-Pb collisions at psNN = 2:76 TeV and in p-Pb collisions at psNN = 5:02 TeV are discussed in section 5. In section 6 detector upgrades for LHC run 3 and 4, and prospects for ultra-peripheral measurements in run 3 and 4 are described. The last section contains a summary and conclusions.
  • Item
    Rozwój i zastosowanie metod pomiarowych i obliczeniowych na potrzeby ochrony radiologicznej personelu w medycynie
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Kopeć, Renata
    Koniec XIX i początek XX wieku to okres przełomowych odkryć w dziedzinie promieniowania jonizującego i promieniotwórczości. W listopadzie 1895 roku niemiecki uczony Wilhelm Rentgen dokonał odkrycia przenikliwego promieniowania X [Röntgen, 1895], nazywanego również na jego cześć rentgenowskim. Po raz pierwszy promieniowanie rentgenowskie zostało wykorzystane w celach medycznych już w styczniu 1896 roku. Rentgenodiagnostyka do dziś stanowi główną i najpowszechniej stosowaną dziedzinę wykorzystania promieniowania jonizującego w medycynie. W oparciu o wykorzystanie promieniowania rentgenowskiego działają lampy rentgenowskie, które znalazły zastosowanie w radiografii ogólnej (konwencjonalnej), radiologii interwencyjnej i tomografii komputerowej. Jednocześnie wciąż rozwija się nowe techniki obrazowania. Konsekwencją odkrycia promieniowania X było rozpoczęcie przez Henri Bequerela prac nad promieniotwórczością. W końcu 1897 roku do systematycznych badań nad promieniowaniem uranu dołączyła w ramach swojej rozprawy doktorskiej Maria Skłodowska-Curie [Skłodowska-Curie, 1904]. To właśnie przez nią został zaproponowany powszechnie dziś stosowany termin „promieniotwórczość”. W wyniku swoich prac wysunęła śmiałą tezę, iż istnieje więcej pierwiastków promieniotwórczych. Do jej prac dołączył Piotr Curie i w 1898 roku małżonkowie Curie ogłosili odkrycie nowych pierwiastków promieniotwórczych najpierw polonu, następnie radu. Wagę nowego odkrycia doceniono przyznając Wilhelmowi Rentgenowi w 1901 roku pierwszą nagrodę Nobla w dziedzinie fizyki. Natomiast za odkrycia w dziedzinie promieniotwórczości w roku 1905 przyznano nagrodę Nobla – Henri Bequerelowi oraz małżonkom Curie. Dynamiczny rozwój badań nad promieniowaniem jonizującym sprawił, iż już w pierwszym roku po odkryciu promieniowania rentgenowskiego zaobserwowano pierwsze negatywne skutki jego oddziaływania z materią żywą [Wojcik & Harms-Ringdahl, 2019]. Początkowe obserwacje dotyczyły odczynów skórnych, zapaleń, martwic oraz efektów na soczewkach oczu. To właśnie obserwacje negatywnych skutków odziaływania promieniowania jonizującego na organizm dały początek ochronie radiologicznej, działowi nauki zajmującemu się ochroną przed promieniowaniem jonizującym. Ochrona radiologiczna, mająca na celu minimalizację skutków promieniowania na organizm ludzki, początkowo dotyczyła jedynie osób pracujących w narażeniu na promieniowanie jonizujące. Pod koniec XX wieku obszar zainteresowania ochroną radiologiczną objął wszystkie osoby eksponowane na promieniowanie jonizujące i obecnie jest definiowane jako całościowy zespół działań mających na celu ochronę pracowników, pacjentów i ogółu ludności przed promieniowaniem. Ponieważ, choć nie sposób wyobrazić sobie współczesnej nauki, techniki i medycyny bez promieniowania jonizującego, jego stosowanie bywa kontrowersyjne w odbiorze. Niechlubną kartą w historii zapisały się wybuchy bomb jądrowych w Hiroszimie i Nagasaki. Z pewnością nie bez znaczenia pozostają również wypadki radiologiczne, w szczególności szerokim echem odbijają się do dnia dzisiejszego skutki awarii jądrowych w Czarnobylu (1986) i Fukuszimie (2011). W tym kontekście szczególnie istotne jest znaczenie edukacji i zrozumienie zasad ochrony radiologicznej. Współcześnie kluczowymi kwestiami w odniesieniu do zastosowania promieniowania jonizującego jest zapewnienie bezpieczeństwa pracownikom, natomiast pacjentom odpowiedniej tj. optymalnej ochrony radiologicznej [ICRP 105, 2007]. Z tego względu ochrona radiologiczna wchodzi w obszar zainteresowania fizyki medycznej i dotyka szerokiego zakresu specjalności medycznych, w których wykorzystywane jest promieniowanie jonizujące, w szczególności radiologii, radioterapii oraz medycyny nuklearnej. Podstawą ochrony zdrowia osób pracujących w narażeniu na promieniowanie jonizujące jest kontrola dawek indywidualnych realizowana poprzez dozymetrię indywidualną. Pomiarów dawek indywidualnych dokonują serwisy dozymetryczne [Lopez & in., 2004; Olko & in., 2006; Alves, Kopec & in., 2014; Gilvin & in, 2015], które muszą spełnić szereg wymagań i norm. Idealną sytuacją byłoby, aby dawkomierze charakteryzowały się płaską charakterystyką energetyczną lub ich kalibracja była przeprowadzana w warunkach narażenia. Ponieważ zazwyczaj nie są dokładnie znane skład i rozkład energii promieniowania, szacowanie dawek wykonuje się w odniesieniu do promieniowania referencyjnego. W dozymetrii indywidualnej wymagania dotyczące niepewności nie są tak restrykcyjne, jak chociażby w radioterapii, gdzie wymagane jest szacowanie dawek z dokładnością rzędu 2-3%. Wynika to z poziomów dawek granicznych (~mSv), które są na tyle małe, że zapewniają personelowi w sposób konserwatywny ochronę przed promieniowaniem. W praktyce stosowane detektory i dawkomierze indywidualne w większości charakteryzują się zmienną charakterystyką energetyczną [Olko, 2002; Obryk & in., 2008; Nunn & in., 2008]. Należy przy tym zauważyć, iż również w ciele ludzkim odpowiedź na dawkę nie jest jednakowa i może się różnić w zależności od typu tkanki [Chow & Grigorov, 2012; Desrosiers & in., 2013]. Taka ocena dawki pochłoniętej w organizmie w stosunku do dawki zmierzonej przez dawkomierz indywidualny jest obarczona szeregiem niepewności, z których największa związana jest z odpowiedzią energetyczną stosowanego typu dawkomierza. Autorka proponuje poprawę metody szacowania dawek w polach promieniowania X, tak aby lepiej uwzględniały charakterystyki stosowanych dawkomierzy. Oprócz promieniowania jonizującego, odpowiednich procedur kalibracyjnych na poprawny odczyt detektora termoluminescencyjnego (TL) mogą wpłynąć czynniki fizyczne i chemiczne. W medycynie może zaistnieć równocześnie konieczność przeprowadzenia zabiegów terapeutycznych, w których następuje przerwanie ciągłości tkanek miękkich i użycia promieniowania jonizującego. Wówczas na finalny odczyt dawki mogą wpłynąć niezbędne procedury dezynfekcji lub sterylizacji, gdyż dawkomierze mogą znaleźć się w pobliżu ciała pacjenta podczas zabiegu. W takim wypadku należy rozważyć odpowiednie metody, tak aby nie miała miejsca utrata sygnału. Wytyczne takie powinny być przedstawione pracownikom służby zdrowia korzystającym z tego typu metod w swojej codziennej pracy. Cechą charakterystyczną w medycynie nuklearnej są stosunkowo wysokie dawki promieniowania, na jakie narażeni są zarówno pacjenci, jak i personel medyczny. Pacjent po przyjęciu radionuklidu promieniotwórczego sam staje się źródłem promieniowania. Personel medyczny powinien ograniczyć do możliwego minimum nie tylko czas przygotowania radiofarmaceutyku, ale również przestrzegać zasad ochrony radiologicznej przy postępowaniu z pacjentem. Obniżenie limitu dawki na soczewki oczu ustanowiono w oparciu o doniesienia o występowaniu katarakty u radiologów pracujących w narażeniu na promieniowanie [Vano & in., 2008, 2010]. Jednak statystyki poziomów dawek dla personelu medycznego, uzyskane w oparciu o bazę danych stworzoną przez Autorkę do obsługi serwisu dozymetrycznego [Budzanowski, Kopec & in., 2011; Kopec & in., 2011], wyraźnie wskazują, iż statystycznie to w medycynie nuklearnej najczęściej występują przekroczenia dawek granicznych. Natomiast poziomy dawek na jakie są narażeni pracownicy w medycynie nuklearnej, szczególnie wobec rosnącego zainteresowania badaniami PET, wymagają stworzenia wytycznych w zakresie monitoringu dawek na soczewki oczu w zakładach medycyny nuklearnej [Dabin, Kopec & in., 2014; Wrzesien & in., 2018]. Narażenie na promieniowanie w radiologii interwencyjnej jest szerokim zagadnieniem [Kim & in., 2008; Kopec & in, 2014; Szumska, 2015; Owsiak, Kopec & in., 2017; Staniszewska, Kopec & in., 2017]. Przy procedurach medycznych nie znajdują zastosowania limity dawek a tylko tzw. wartości referencyjne. Zabieg, któremu jest poddawany pacjent musi być w pełni zakończony, nie ma więc możliwości zaplanowania dokładnego czasu trwania danej procedury. W radiologii zabiegowej ważnym czynnikiem redukcji dawek dla personelu są osłony. Innymi aspektami mogą być rodzaje wykonywanych projekcji, stosowana energia i filtracja promieniowania X, rodzaj stosowanych środków ochronnych i dodatkowych zabezpieczeń. Modele matematyczne oparte o metody Monte Carlo umożliwiają obliczenie i oszacowanie ilości pochłoniętej energii w interesującym punkcie ciała lub organie (np. soczewkach oczu). W oparciu o wyniki istnieje możliwość wyznaczenia optymalnych wartości projekcji, wskazania konieczności stosowania dodatkowych osłon oraz określenie poziomu narażenia w zależności od zastosowanej procedury [Koukorava & in., 2011, Santos & in., 2015; 2018]. Tego typu zależności mogą zostać zastosowane do stworzenie wytycznych celem optymalizacji podczas pracy z promieniowaniem. Zaproponowany w pracy model matematyczny oparty o metody Monte Carlo może służyć jako narzędzie obliczeniowe dla osób narażonych pracujących w pracowniach radiologii zabiegowej, pokazujące jak stosowane podczas pracy z pacjentem projekcje i środki ochrony wpływają na narażenie na promieniowanie jonizujące. Centrum Cyklotronowe Bronowice w IFJ PAN jest pierwszym w Polsce ośrodkiem, w którym odbywa się radioterapia protonowa. Jest to obecnie najnowocześniejsza forma radioterapii dostępna na świecie. Wykorzystanie jonów do leczenia zmian nowotworowych, ze względu na charakter oddziaływania pozwala na maksymalne oszczędzenie zdrowych tkanek. Nowa technologia jest wyzwaniem nie tylko w obszarze leczenia zmian, lecz również w aspektach związanych z ochroną radiologiczną. Prezentowana praca porusza opisane powyżej zagadnienia, ma na celu przedstawienie oraz omówienie dotychczasowych doświadczeń zebranych przez Autorkę w dziedzinie ochrony radiologicznej pracowników sektora medycznego. Jest połączeniem wiedzy i osiągnięć Autorki w tym zakresie. Omówienie praw i podstaw fizycznych związanych z oddziaływaniem promieniowania jonizującego z materią wychodzi poza zakres niniejszej rozprawy. Niemiej taka wiedza jest niezbędna do prawidłowego rozumienia zasad i praw związanych z ochroną radiologiczną oraz pozwala zrozumieć na czym opiera się stosowanie różnych technik i pojęć w poszczególnych obszarach zainteresowania. Niezbędne i stosowane w rozprawie pojęcia Autorka starała się przybliżyć w możliwie zwięzły i zrozumiały sposób. Szerszych, niż przedstawione w niniejszej rozprawie, zagadnień z zakresu podstaw fizyki jądrowej, oddziaływania promieniowania z materią i organizmem żywym, detekcji promieniowania, jak również sposobów wykorzystania promieniowania jonizującego w medycynie należy szukać w podręcznikach z zakresu fizyki medycznej.
  • Item
    Heat Transfer in High Field Superconducting Accelerator Magnets
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Bocian, Dariusz
    This monograph comprehensively describes the problem of heat transfer in superconducting accelerator magnets, which generate high magnetic fields and are cooled with superfluid helium at temperature of 1.9 K or normal fluid helium at a temperature of 4.2 K. The main objective of the research presented in the monography was to optimize the heat transfer in superconducting magnets in terms of their operation in accelerators. The magnets are affected by the shower of secondary particles generated by the particles lost from the beam or particle debris from experiments. The optimization of heat transfer in the superconducting magnets is essential for accelerator efficiency during the collection of the data for physics analyses. The quench of magnets stops accelerator operation and affects the integrated luminosity The superconductors are characterized by the critical surface determined by three parameters: the critical temperature (Tc), the critical current density (Jc) and the critical magnetic field (Bc). The particles lost from the beams or coming from the collision debris are hitting the vacuum pipe and generating a shower of secondary particles, which deposits energy in the magnets coils causing increase of the conductor temperature above a critical one and in consequence provokes the quench of magnets. A quench is the transition of a conductor from the superconducting to the normal conducting state which occurs irreversibly in the superconducting magnets if one of the three parameters: the magnetic field, the current density or the temperature exceeds a critical value. In the research described in this monography the studied critical parameter is the temperature and the figure of merit is the energy deposited in the conductor volume at which the quench occurs. This monograph contains the historical background and the overview of existing methods of solving of the heat transfer problem in multilayer systems, for example in the superconducting magnets. An essential part of the monography is the presentation of the original approach to the problem of optimizing the heat flow in superconducting magnets, designed and developed by the author of this monography and the experimental validation of this method carried out in the form of mini-experiments, planned and executed by the author at CERN. In the monograph the details of calculations and measurements for the superconducting magnets currently installed and operating in the LHC are described as well as the status and analysis of superconducting magnets developed for the LHC upgrade in ~2025. The monograph focuses on the heat transfer from the superconductor to the heat exchanger through a multilayer structure made of solid elements and channels occupied by the normal fluid or the superfluid helium. This monography summarizes many years of the author’s work and experience in this field and includes: the description of the model, the summary of the results obtained for the superconducting magnets installed in the LHC, the results of mini-experiments carried out at CERN and FERMILAB and a description of applications of the developed model in the process of design of a new superconducting magnets for the LHC upgrade. The examples of alternative numeric calculations and measurements are briefly discussed and extended bibliography is presented.
  • Item
    Identyfikacja i charakterystyka izotopowych śladów awarii elektrowni jądrowej Fukushima Daiichi
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Kierepko, Renata
    11 marca 2011 r. o godzinie 5:46 czasu UTC (14:46 JST) doszło do trzęsienia ziemi u wschodnich wybrzeży Japonii (The Great East Japan Earthquake). Japońska Agencja Meteorologiczna zlokalizowała hipocentrum zdarzenia 130 km na wschód od wybrzeża Sanriku (północno-wschodnia część wyspy Honsi¯u), na głębokości 24 km, na granicy dwóch płyt tektonicznych tj.: północnoamerykańskiej i pacyficznej, w pobliżu Rowu Japońskiego (rys.1.1) [1]. Trzęsienie to, o magnitudzie 9 (M 9) w skali Richtera [2], było jednym z pięciu największych zarejestrowanych w historii trzęsień ziemi na płycie pacyficznej (Chile 1960 (M 9.5), Chile 2010 (M 8.8), Alaska 1964 (M 9.2) i Sumatra 2004 (M 9.2)). Jego następstwem było zaskakująco wysokie tsunami z maximum dochodzącym do 10-15 m (przewidywania 3-6 m) [1]. Zarówno trzęsienie ziemi jak i tsunami wywołały zniszczenia m.in. w elektrowni jądrowej Fukushima Daiichi (FDNPP), doprowadzając do jednej z największych awarii jądrowych w historii.
  • Item
    Selected measurements of final states with third-generation fermions in proton – proton collisions using the ATLAS detector at the LHC
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Malecki, Paweł
    This monograph is focused on the measurements performed by the ATLAS experiment using final states containing third-generation fermions in the recent years and covers both the Run-1 and early Run-2 data taking periods of proton – proton collisions at ps = 7, 8 and 13 TeV centre-of-mass energies. The ATLAS algorithms for reconstructing and identifying the hadronically-decaying τ leptons and hadronic jets containing b-hadrons are described in detail, covering both the end-of-Run-1 status and Run-2 developments. In addition, experimental measurements of the efficiencies of these algorithms are presented together with the results on their misidentification rates in background objects. Selected measurements (and derived conclusions) in the Standard Model sector are presented, including the measurement of τ polarisation in Z-boson decays and measurements in the SM Higgs sector with both ττ and bb final states. This is followed by a presentation of selected searches for non-Standard-Model Higgs bosons, including the heavy neutral one in di-τ and di-b decays as well as the searches for the charged Higgs boson in τυ and tb channels. No deviation from Standard-Model predictions is observed in any of the presented analyses and no hint of non-SM Higgs boson existence was found. Exclusion limits are presented instead.
  • Item
    Dwuwymiarowa dozymetria termoluminescencyjna
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Kłosowski, Mariusz
    Dwuwymiarowa dozymetria termoluminescencyjna jest metodą szybkiego pomiaru rozkładu dawki w polu promieniowania jonizującego, przy pomocy tzw. powierzchniowych detektorów termoluminescencyjnych. Metodę pomiaru oraz komponenty wchodzące w kład dwuwymiarowego systemu dozymetrycznego systematycznie opracowywano i rozwijano w ostatnich kilkunastu latach w Instytucie Fizyki Jądrowej PAN. Opracowano dwa rodzaje powierzchniowych detektorów termoluminescencyjnych do różnych zakresów dawek oraz technologię ich produkcji. Zaprojektowano i skonstruowano trzy unikatowe czytniki do odczytu powierzchniowego detektorów. Czytniki zostały przystosowane do różnych funkcji i odczytu różnej wielkości detektorów powierzchniowych, od rozmiaru pastylki o średnicy 5 mm do dużych folii o rozmiarze 20cm x 20cm. Dwuwymiarowy system dozymetryczny sprawdził się w wielu aplikacjach dozymetrycznych, takich jak pomiary w polach fotonowych, jonowych, precyzyjnych pomiarach mikrowiązki, rozróżnianiu ekspozycji statycznej od dynamicznej w dozymetrii indywidualnej, a także w pomiarach w kosmosie i w badaniach materiałowych próbek kryształów. Monografia zawiera kompleksowe omówienie systemu termoluminescencyjnej dozymetrii dwuwymiarowej zaczynając od podstaw teoretycznych i podstawowych właściwości materiałów termoluminescencyjnych, omawia technologię produkcji detektorów powierzchniowych, czytniki do pomiarów dwuwymiarowych i właściwości termoluminescencyjne detektorów powierzchniowych. Końcowa część pracy to obszerny rozdział, przedstawiający zastosowania praktyczne systemu dozymetrycznego w różnych dziedzinach dozymetrii promieniowania jonizującego.
  • Item
    Zastosowanie wiązek z cyklotronów AIC-144 i Proteus C-235 do radioterapii protonowej nowotworów oka w IFJ PAN
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Swakoń, Jan
    Radioterapia protonowa nowotworów oka jest wysoce wyspecjalizowaną formą radioterapii onkologicznej – metodą inaktywacji komórek nowotworowych guza wewnątrzgałkowego przez ściśle określoną dawkę promieniowania jonizującego pochodzącą od precyzyjnie uformowanej wiązki protonów. Ze względu na niewielkie rozmiary gałki ocznej i znajdujących się w niej struktur, konieczne jest zachowanie sub-milimetrowej precyzji napromieniania oraz pozycjonowania pacjenta. W procedurze radioterapii protonowej nowotworów oka uczestniczy zespół lekarzy, fizyków i inżynierów. Aby prawidłowo przeprowadzić zabieg napromieniania gałki ocznej należy spełnić szereg warunków dotyczących zarówno przygotowania wiązki protonowej jak i przygotowania pacjenta do radioterapii. Pacjent musi być dostatecznie precyzyjnie i powtarzalnie spozycjonowany na stanowisku radioterapii, zaś gałka oczna pacjenta musi być tak ukierunkowana (przy współpracy pacjenta), aby w sposób zgodny z przygotowanym i zatwierdzonym planem napromieniania precyzyjnie dostarczyć dawkę w obszar guza. Konieczne jest przy tym systematyczne zrealizowanie i udokumentowanie wszystkich elementów procedury napromieniania, poprzedzonych procedurami kontroli jakości ich przygotowania i realizacji. W IFJ PAN zostały zaprojektowane, zbudowane i obecnie pracują dwa stanowiska radioterapii protonowej nowotworów oka. Pierwsze wykorzystuje cyklotron AIC-144, drugie – nowy cyklotron Proteus C-235. Należy podkreślić istotne różnice pomiędzy fizycznymi parametrami wiązek protonowych wytwarzanych przez oba cyklotrony. W przypadku AIC-144 w koncepcji i projekcie stanowiska konieczne było uwzględnienie ograniczeń wynikających z niskiej energii wiązki (ok. 60 MeV), zaś dla cyklotronu Proteus C-235 konieczność redukcji do 70 MeV wiązki o energii 230 MeV skutkowała znacznym ograniczeniem prądu wiązki do ok. 2,5 nA. Różnice te należało uwzględnić projektując stanowiska tak, aby zapewnić możliwie zbliżone warunki prowadzenia radioterapii pacjentów. Oba stanowiska, szczególnie drugie, wykorzystywane są obecnie do rutynowego napromieniania pacjentów okulistycznych. Autor pracy kierował i uczestniczył we wszystkich działaniach i pracach związanych z koncepcją fizyczną, budową i wdrożeniem klinicznym obu stanowisk, w niniejszej pracy systematycznie analizując, opisując i dokumentując założenia i wyniki szeregu badań i pomiarów koniecznych do zapewnienia bezpiecznej, powtarzalnej, ściśle kontrolowanej i udokumentowanej procedury radioterapii protonowej nowotworów gałki ocznej. W rozdziałach 1-4 pracy autor omawia podstawy fizyczne i medyczne radioterapii protonowej nowotworów gałki ocznej, zaś w rozdz. 5 dyskutuje koncepcje, wymagania i założenia projektowe dla obu stanowisk. W kolejnych rozdziałach następuje szczegółowy opis infrastruktury obu cyklotronów (szczególnie AIC-144), elementów stanowiska i ich zadań, opis systemu sterowania i kontroli stanowiska, konfiguracji komputerowego systemu planowania leczenia, układów formowania wiązki oraz licznych metod kontroli jakości wiązki, dozymetrii względnej i referencyjnej. W końcowych rozdziałach autor szczegółowo omawia procedurę radioterapii podając zestaw danych medycznych koniecznych do prawidłowego zaplanowania napromieniania indywidualnego pacjenta. Podsumowanie i wnioski autora zawarte są w ostatnim 14. rozdziale pracy. Wzory formularza danych medycznych, przykładowy wydruk planu leczenia oraz wzór karty napromieniania pacjenta podane są w osobnych załącznikach. Praca ma charakter interdyscyplinarny łącząc zagadnienia fizyki radiacyjnej, dozymetrii, techniki akceleratorowej oraz informatyki z elementami biomedycznymi - radioterapią, diagnostyką obrazową oraz ochroną radiologiczną pacjenta. Jest równocześnie monografią i materiałem referencyjnym dla czytelnika poszukującego ogólnych informacji dotyczących radioterapii protonowej nowotworów gałki ocznej, ale też dla fizyka medycznego lub lekarza bezpośrednio realizującego procedurę tej formy radioterapii.
  • Item
    Production of light neutral mesons in the ALICE experiment at the LHC
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Matyja, Adam
    Light pseudo-scalar neutral mesons have been studied in e+eˉ, hadron-hadron, hadron-nucleus and nuclear collisions for decades. The results associated with neutral mesons provide information that is as good as that which comes from charged pions or hadrons. However, they have the advantage that they are not affected by Coulomb forces as charged pions. Due to the fact that the differential cross-section can be factorized into short distance (perturbative) and long distance (non-perturbative) terms when sufficiently large momentum transfer occurs, the measurement of neutral meson spectra provides a chance to test NLO or NNLO pQCD calculations or to constrain parton distribution and fragmentation functions. The existence of the Quark-Gluon Plasma (QGP) state was postulated in seventies of the last century. The QGP is a highly dense and hot QCD medium in thermal equilibrium where quarks and gluons are almost free. The strongly interacting QGP state has been discovered at RHIC experiments in heavy-ion collisions and is also formed in nuclear collisions at the LHC. The QGP properties can be probed with neutral mesons. Hard (high pT) partons are produced in hard scatterings at the early stage of a collision. Hard partons interact with the dense QGP medium, lose energy, and emerge as quenched jets in the final state after hadronization. Modification of a jet energy results also in reduction of the energy of leading hadrons and in particular neutral mesons. This phenomenon, known as jet quenching, can be quantified via the nuclear modification factor which shows a large suppression of hadron yields at high pT in the most central AA collisions compared to pp collisions scaled by the number of nucleon-nucleon binary collisions. Thus, the measurement of neutral meson spectra constrains mechanisms of parton energy loss in dense systems via studies of the nuclear modification factor. The ALICE experiment has been designed to study the Quark-Gluon Plasma. However, not only heavy-ion collisions but also pp and pA collisions can be studied there. The π° and η mesons are reconstructed in ALICE mainly via their photonic decays. Photons can be directly measured in ALICE electromagnetic alorimeters, EMCal and PHOS or reconstructed from e+eˉ pairs which come from photon conversion in the central barrel detectors’ material. Calibration of detectors in which photons and electrons are identified plays a very important role. In this context, alibration of two detectors, the Time Projection Chamber (TPC) and the Electromagnetic Calorimeter (EMCal), of the ALICE detector is explained. The overview of the world results for many hadron-hadron, nucleus-nucleus and hadron-nucleus collisions collected in a very wide range of center-of-mass collision energy, from few GeV to few TeV, is given in the paper. Thanks to the LHC accelerator which provided pp collisions in the energy range √s = 0.9 to 13 TeV, p-Pb collisions at √sNN = 5.02 and 8.16 TeV, as well as Pb-Pb collisions at √sNN = 2.76 and 5.02 TeV, the ALICE experiment could extend neutral meson measurements to new energies unavailable before the LHC era. Inclusive π° and η meson production spectra have been measured in a wide pT range at mid-rapidity. The nuclear modification factor shows the large suppression in the central Pb-Pb collisions. The existence of strongly interacting QGP state of matter is confirmed. No suppression is observed in p-Pb collisions, which supports the thesis that suppression is a final state effect. The measured η/ π° ratio shows universal behaviour among systems and energies. However, deviation from mT scaling in very low pT range is indicated. The results from the ALICE experiment give new constraints on various models in both perturbative and non-perturbative regimes. Data collected by ALICE in pp collisions at √s = 13 TeV can provide very precise measurement of neutral meson spectra and information about jet fragmentation. Future measurements of neutral meson production spectra and isolated photon - jet correlations in pp collisions at √s = 13 TeV are discussed.
  • Item
    Nowoczesne techniki detekcji promieni kosmicznych ultra-wysokich energii
    (Institute of Nuclear Physics Polish Acadmy of Sciences, 2019) Stasielak, Jarosław
    Badania nad promieniami kosmicznymi ultra-wysokich energii, powyżej 10¹⁸ eV, prowadzone są przy użyciu olbrzymich detektorów naziemnych rejestrujących wielkie pęki atmosferyczne (kaskady cza˛stek wtórnych) indukowane przez cząstki promieniowania kosmicznego w atmosferze. W ciągu ostatnich lat badania te doprowadziły do znacznego postępu w zrozumieniu promieni kosmicznych. Pomimo tego uzyskane wyniki wciąż nie pozwalają na wyznaczenie źródeł tych najbardziej energetycznych cząstek jakie znamy we Wszechświecie, czy na wyjaśnienie natury obserwowanego stłumienia widma promieni kosmicznych przy energiach większych niż 4 ×10¹⁹ eV. Wyjaśnienie tych zagadnień jest jednym z najważniejszych celów współczesnej astrofizyki. Jednocześnie te same wyniki wskazują że dalsze postępy w badaniach nad promieniami kosmicznymi ultrawysokich energii wymagają zwiększenia możliwości pomiarowych detektorów. Wynika stąd szczególna potrzeba poszukiwania nowych rozwiązań eksperymentalnych umożliwiających poprawienie dokładności pomiarów wielkich pęków, przy jednoczesnej redukcji kosztów budowy i obsługi detektorów. Praca ta poświęcona jest tym zagadnieniom. Przedstawiono w niej nowoczesne techniki detekcji promieni kosmicznych ultrawysokich energii, zarówno klasyczne dobrze sprawdzone metody, jak również i nową radiową metodę detekcji, intensywnie rozwijaną w ciągu ostatniej dekady, z którą obecnie wiąże się duże nadzieje. Omówione zostały również poszukiwania alternatywnych metod na przykładzie prac związanych z technikami mikrofalowej i radarowej detekcji wielkich pęków. Przedstawiono również główne cele i plany rozbudowy największego detektora promieni kosmicznych ultra-wysokich energii jakim jest Obserwatorium Pierre Auger.
  • Item
    Zastosowanie modelowania i symulacji komputerowych do rozwoju metod pomiarowych jądrowej geofizyki otworowej wykorzystujących profilowania neutronowe
    (Institute of Nuclear Physics Polish Academy of Sciences, 2018) Wiącek, Urszula
    Geofizyczne profilowania otworowe, wykorzystujące metody jądrowe, są powszechnie wykonywanymi pomiarami w odwiertach zlokalizowanych w typowych konwencjonalnych formacjach węglowodorów. Są to metody dobrze rozpoznane i spełniające oczekiwania interpretacyjne, stosowane od lat zarówno w Polsce, jak i na świecie, zwłaszcza, jeśli mamy do czynienia z warstwami jednorodnymi o znacznej miąższości. Wymagania dla geofizycznych metod poszukiwawczych rosną jednak wraz z koniecznością prowadzenia pomiarów w warunkach złóż niekonwencjonalnych, cienkowarstwowych, czy nisko-porowatych, do których można zaliczyć pokłady skał łupkowych [Zorski i in., 2013]. Sytuacja ta stała się powodem przeprowadzenia szczegółowych badań nad możliwościami pomiarów sondami neutronowymi dla cienkich warstw i wpływem parametrów neutronowych ośrodków skalnych na przebieg rejestrowanych odpowiedzi (anomalii), zwłaszcza w pobliżu ich granic. Niniejsza monografia stanowi podsumowanie tych badań. Geofizyczne, jądrowe metody poszukiwawcze opierają się na wykorzystywaniu zjawisk oddziaływania neutronów i promieniowania gamma z badanym ośrodkiem skalnym. W tym celu wyposaża się sondę otworową w źródło promieniowania gamma lub źródło neutronów oraz w odpowiednie układy detekcji. Kwanty gamma, w stosowanym w sondach geofizycznych zakresie energii, oddziałują z ośrodkiem głównie poprzez fotoefekt i zjawisko Comptona. Oddziaływanie neutronów polega na ich rozpraszaniu i absorpcji przez jądra pierwiastków. Powyższe zjawiska fizyczne stanowią podstawy odpowiednich typów jądrowych sond otworowych: - Sonda gamma do pomiaru naturalnej promieniotwórczości, wyposażona w odpowiedni spektrometryczny detektor kwantów gamma służy do wyznaczania koncentracji pierwiastków promieniotwórczych uranu (235U), toru (232Th) i potasu (40K) w ośrodku skalnym [Zorski i in., 2013]. - Sonda gamma-gamma jest aparaturą wyposażoną w źródło kwantów gamma (np.: 137Cs) i dwa detektory umieszczone w różnych odległościach od źródła, np.: liczniki scyntylacyjne NaJ(Tl). Odpowiedź detektorów można skalibrować z gęstością elektronową ośrodka (sonda gęstościowa) i tzw. indeksem absorpcji fotoelektrycznej (spektrometryczna sonda litologiczno-gęstościowa). Gęstość elektronowa służy do wyznaczenie gęstości objętościowej ośrodka skalnego [Jarzyna i in., 1997], a wartość indeksu absorpcji, zależna od liczb atomowych pierwiastków występujących w ośrodku, pozwala na identyfikację różnych minerałów budujących matryce skalną [Bała i Waliczek, 2012]. Informacje dostarczane z pomiarów gamma – gamma służą przede wszystkim do wyznaczania porowatości, a także do wstępnej identyfikacji litologicznej, w tym określania zailenia oraz do korelacji między-otworowej. W otworach kierunkowych przy pomiarach na przewodzie wiertniczym (LWD) pomiary gamma – gamma służą także do obrazowania kątowego strefy przyotworowej. Przykłady takich prac można znaleźć w specjalistycznej literaturze, np.: [Holenka i in., 1995], [Radtke i in., 2003], [Spross i in., 1995], [Moake i in., 1996], [Spross i in., 1993]. - Sonda neutron-neutron jest wyposażona w źródło neutronów, które może być źródłem izotopowym (np.: Am-Be) albo źródłem akceleratorowym (generator neutronów o ciągłym lub impulsowym trybie pracy). Sonda zazwyczaj wyposażona jest w układ detektorów neutronów umieszczonych w różnych odległościach od źródła, które mogą rejestrować zarówno neutrony termiczne jak i epitermiczne. Metody neutronowe są dobrze opisane w wydawnictwach książkowych, np.: [Ellis i Singer, 2008], licznych pracach publikowanych w materiałach prestiżowych konferencji Society of Petrophysicists and Well Log Analysts (SPWLA), a także w pracach polskich, np.: [Czubek, 1992], [Zorski i in., 2013]. Transport neutronów od źródła do detektora ma złożony charakter: neutron traci początkową energię w procesie spowalniania, następnie podlega dyfuzji i absorpcji przez jądra pierwiastków budujących dane medium. W ośrodku skalnym proces spowalniania zależy głównie od zawartości wodoru; im jest go więcej tym bardziej efektywnie neutrony wytracają energię. Zakładając, że źródłem wodoru w skale są głównie pory wypełnione wodą lub węglowodorami, to wskazania sondy neutron-neutron można kalibrować z porowatością ośrodka skalnego. Kalibracja sondy neutronowej jest procesem skomplikowanym i wymaga uwzględnienia wielu czynników, w tym obecności silnych absorbentów neutronów (jak bor, chlor czy ziemie rzadkie) obecnych w ośrodku skalnym. Niektóre konstrukcje sond neutronowych, zawierające złożony zestaw detektorów, albo impulsowy generator neutronów, np.: [Flanagan i in., 1991], [Neuman, 1993] pozwalają na dodatkowy pomiar przekroju czynnego na absorpcję neutronów. Taką sondą, wyposażoną w źródło izotopowe, jest skonstruowana przez firmę Geofizyka Kraków sonda NNTE [Drabina i in., 2003], [Drabina i Zorski, 2006], która stanowi odnośnik do rozważań zawartych w niniejszej monografii. Sonda wyposażona w źródło neutronowe i odpowiedni spektrometryczny detektor kwantów gamma daje możliwość realizacji profilowania geochemicznego służącego do jednoznacznej identyfikacji szeregu pierwiastków w zawartych w ośrodku skalnym [Zorski i in., 2013]. Wykorzystuje się tu zjawisko reakcji jądrowych pomiędzy prędkimi lub termicznymi neutronami i jądrami takich pierwiastków jak O, C, Si, Ca, Fe, H, S, Cl, Al, K i in., w wyniku których emitowane jest promieniowanie gamma o określonej, charakterystycznej dla danego pierwiastka energii. Profilowania geochemiczne wykorzystujące źródła neutronowe należą do kluczowych pomiarów w geofizyce otworowej wykonywanych na potrzeby poszukiwań gazu w skałach łupkowych. Niniejsza monografia zawiera szczegółowe opracowania zjawiska transportu neutronów w ośrodkach skalnych od źródła umieszczonego w geofizycznej sondzie otworowej. W przypadku sondy typu neutron-neutron wielkością mierzoną przez detektor jest liczba neutronów termicznych lub epitermicznych, które nie zostały zaabsorbowane w ośrodku skalnym i dotarły do detektora. W przypadku sondy neutronowej do profilowania geochemicznego zachodzi analogiczne zjawisko transportu neutronów od źródła do punktu, w którym neutron reaguje z jądrem ośrodka (zostaje zaabsorbowany), co powoduje wyemitowanie kwantu gamma rejestrowanego przez detektor. Modelowania numeryczne transportu neutronów zawarte w monografii odnoszą się do sondy neutronowej NNTE, ponieważ była możliwość przedstawienia rzetelnego porównania wyników modelowania komputerowego z rzeczywistymi pomiarami zrealizowanymi tą sondą. Jednakowoż, zaobserwowane efekty rozkładów pól neutronowych w pobliżu granic ośrodków, wpływ miąższości cienkich warstw, pojawianie się artefaktów wynikających z różnic w parametrach neutronowych graniczących warstw mają charakter ogólny, które są obecne czy to w przypadku profilowania porowatości czy geochemicznego. Obecność granic różnych elementów układu pomiarowego powoduje powstawanie licznych niejednorodności pola neutronowego, co wpływa na odpowiedź sondy neutronowej. Najprostsze przykłady takich niejednorodności na granicy otwór-warstwa, wyznaczone w warunkach laboratoryjnych, były opublikowane już w latach 50-tych ubiegłego wieku, np.: [Tittle i in., 1951]. Obliczenia symulacyjne metodą Monte Carlo stanowią już od wielu lat istotne uzupełnienie dla rozwiązywania zagadnień transportu neutronów w układach, które są zbyt trudne do rozwiązania w ścisły analityczny sposób lub zbyt kosztowne czy też zbyt skomplikowane do osiągnięcia w drodze eksperymentu fizycznego. Ze względu na uzyskiwanie na drodze symulacji wyników bardzo zbliżonych do rzeczywistych, coraz częściej traktowane są jako odrębne narzędzie – eksperyment numeryczny, a nie tylko wspomagające rzeczywisty eksperyment. Tutaj eksperyment numeryczny sprowadza się do symulacji komputerowej zjawiska transportu neutronów w zadanym ośrodku materialnym – skalnym, z uwzględnieniem układu geometrycznego, otworu i sondy pomiarowej. Do obliczeń, rozważań ilościowych zjawiska transportu, stosowana jest metoda statystyczna Monte Carlo. W metodzie tej, korzystając ze znanych z doświadczenia i/lub teorii rozkładów prawdopodobieństwa możliwych zdarzeń i reakcji fizycznych (np.: reakcji rozpraszania i absorpcji neutronów w materii), o wyborze zjawiska, które w danym momencie zajdzie, decyduje się w sposób losowy. Możliwość ta wynika ze stochastycznego charakteru transportu neutronów w ośrodku. Metoda ta umożliwia zaprojektowanie i wykonanie symulacji pomiarów otworową sondą neutronową. Symulacje przeprowadza się w środowisku całkowicie zdefiniowanym poprzez skład pierwiastkowy skały, porowatość, granice warstw, budowę i położenie sondy, średnicę i wypełnienie otworu. W niniejszym opracowaniu przedstawiono szereg przykładów zastosowań symulacji Monte Carlo przy wykorzystaniu kodu MCNP (Monte Carlo N-Particle transport Code), [MCNP Team, 2008] do zagadnień geofizyki jądrowej, związanych z wykorzystaniem źródeł neutronowych. Na przykładzie sondy neutronowej NNTE (Neutron-Neutron Termiczne-Epitermiczne) pokazana została bardzo dobra zgodność wyników odpowiedzi jej detektorów, otrzymanych metodą symulacji numerycznych Monte Carlo, z wynikami z rzeczywistych pomiarów wykonanych tą sondą na stanowisku kalibracyjnym w Zielonej Górze [Zorski, 1996]. To daje przekonanie o wiarygodności wszystkich dalszych wyników numerycznych eksperymentów prezentowanych w tej pracy. Rozdział 2 stanowi wprowadzenie do fizyki zagadnienia transportu neutronów i promieniowania gamma w ośrodkach materialnych. Obejmuje także podstawowe założenia symulacji tych procesów metodami Monte Carlo. Przedstawiono, w jaki sposób można numerycznie symulować historię transportu (przemieszczania się) pojedynczego neutronu w ośrodku od momentu wyemitowania go ze źródła do momentu absorpcji w ośrodku. To wprowadzenie wyjaśnia, dlaczego podstawowymi danymi do prowadzenia takich obliczeń jest skład pierwiastkowy ośrodka i jego szczegółowy układ geometryczny. Rozdział 3 przedstawia w skrócie zagadnienie kalibracji sond neutronowych, wiążące odpowiedź detektorów sondy z porowatością ośrodka. Przytoczono metodę Czubka półempirycznej kalibracji sond neutronowych [Czubek, 1990], [Czubek, 1994], której elementy są wykorzystywane w dalszej części pracy. Na drodze eksperymentów numerycznych wykazano, że metoda Czubka sprawdza się w szerszym zakresie zmienności parametrów, oraz przedstawiono nowe możliwości wykorzystania, wprowadzonego przez Czubka, generalnego parametru neutronowego, GNP, do analizy amplitudy anomalii cienkich warstw. Celem Rozdziału 4 było wykazanie zgodności eksperymentu numerycznego – symulacji komputerowej – z rzeczywistym eksperymentem wykonanym w warunkach stanowiska kalibracyjnego. Wykazano, że uzyskanie pełnej zgodności wymagało zastosowania odpowiednio zweryfikowanych bibliotek danych jądrowych, oraz szczegółowych danych składu pierwiastkowego wzorców skalnych stanowiska kalibracyjnego. W tym Rozdziale przedstawiono model numeryczny sondy otworowej NNTE, który był wykorzystywany w większości symulacji komputerowych zawartych w pracy. W końcowej części rozdziału pokazano, że wymodelowana numerycznie krzywa kalibracji sondy neutronowej w postaci zależności częstości zliczeń detektorów od generalnego parametru neutronowego GNP jest zgodna z wynikami metody półempirycznej Czubka. Rozdział 5 zawiera analizę rozkładów energetyczno-przestrzennych neutronów (pól neutronowych) generowanych w przez źródło sondy w jednorodnych ośrodkach wokół otworu. Opracowane przez autorkę pracy procedury numeryczne pozwoliły na szczegółowe zobrazowanie pól neutronowych w modelowych ośrodkach skalnych o różnych parametrach neutronowych, a także na przedstawienie rozkładów energetycznych neutronów w objętościach czynnych detektorów. Pokazano, jaki wpływ ma asymetryczne położenie źródła neutronów w sondzie, w stosunku do położenia detektorów, na kształtowanie się odpowiedzi detektorów od jednorodnych formacji. Odpowiedzi sondy od jednorodnych ośrodków, o wymiarach znacznie przekraczających drogi transportu neutronów w materii, stanowią dane bazowe do interpretacji tych pomiarów, dlatego szczegółowa analiza transportu neutronów, na którą pozwala eksperyment numeryczny, jest niezwykle istotna. Rozdział 6 dotyczy zagadnienia odpowiedzi sondy neutronowej od cienkich warstw. Z punktu widzenia transportu neutronów, określenie warstwa cienka oznacza, że amplituda jej anomalii jest mniejsza od odpowiedzi sondy w ośrodku jednorodnym nieskończonym. Zostały obliczone numerycznie odpowiedzi sondy neutronowej i wyznaczone anomalie dla warstw o różnych parametrach neutronowych oraz różnych grubościach i nachyleniach w stosunku do osi otworu. Przeprowadzono analizę wpływu ww. parametrów na kształt i amplitudę anomalii. Wykazano, że wielkość obniżenia amplitudy anomalii można korelować ze zmiennością generalnego parametru neutronowego, GNP, graniczących warstw. Zostały przedstawione charakterystyczne przykłady rozkładów energetyczno-przestrzennych pól neutronowych w obszarach granic warstw, a także znaczącego wpływu asymetrii sondy na formowanie się odpowiedzi detektorów. Zagadnieniom odpowiedzi sondy neutronowej w cienkich warstwach poświęcony jest również Rozdział 7, w którym zaprezentowano symulacje numeryczne dla eksperymentalnego zestawu wzorców zbudowanych z kształtek ceramicznych do badania wpływu porowatości i cienkich warstw na wyniki profilowań neutronowych. Wzorce te były zbudowane na stanowisku kalibracyjnym w Zielonej Górze. Wykonane obliczenia numeryczne dla profilu obejmującego cienkie warstwy z kształtek o różnej porowatości potwierdziły wnioski z poprzedniego rozdziału, iż zaniżenie amplitudy anomalii od cienkiej warstwy można korelować ze zmiennością parametru GNP graniczących warstw. Dostępne dane eksperymentalne ze stanowiska w Zielonej Górze pozwoliły na stwierdzenie zgodności wyników symulacji komputerowych z rzeczywistym pomiarem. Rozdział 8 przedstawia przykład możliwości modelowania odpowiedzi sondy neutronowej dla aktualnych problemów badawczych. Przedstawiono wyniki symulacji komputerowych dla grubych warstw zawierających skały łupkowe o niskich, ale różniących się porowatościach. Celem tych symulacji było sprawdzenie, czy tego typu warstwy są rozróżnialne przez detektory sondy neutronowej. Wysymulowane odpowiedzi sondy wskazują, że uzyskane anomalie są wyraźne, nawet jeśli graniczą ze sobą warstwy o małej porowatości 2% i 5%. Rozdział 9 przedstawia inny przykład możliwości modelowania numerycznego. Przedstawiono trzy warianty konstrukcyjne sondy neutronowej, dla których wymodelowano odpowiedzi detektorów wzdłuż złożonego profilu składającego się z warstw o różnych porowatościach i różniących się wartościami przekroju czynnego absorpcji neutronów termicznych. Tego typu modelownia mogą być przydatne zarówno do analizy wpływu budowy sondy na jakość odpowiedzi detektorów, jak i do prac projektowych nad nowymi rozwiązaniami konstrukcyjnymi. Przy wyznaczaniu anomalii dla profilu łupkowego (Rozdział 8) napotkano na przykład powstawania artefaktu zniekształcającego przebieg anomalii, charakteryzującego się amplitudą o kierunku przeciwnym do przebiegu anomalii. Podobny przykład zarejestrowano przy modelowaniu anomalii od warstw modelowych opisanych w Rozdziale 6. Zarejestrowane przypadki artefaktów, przejawiające się w postaci jakby dodatkowych anomalii w pobliżu granicy warstw, są odzwierciedleniem znacznego, nietypowego zaburzenia pola neutronowego w tym ograniczonym obszarze. Wyjaśnienie fizyczne tego zjawiska wymagało przeprowadzenia szczegółowych dodatkowych obliczeń. Aby nie zaburzać ciągłości pracy, wyjaśnienie zjawiska powstawania artefaktów zostało przedstawione po Rozdziale 9, w oddzielnym Uzupełnieniu. Całą sekwencję obliczeń numerycznych i analizę tego efektu przedstawiono na przykładzie graniczących ze sobą warstw o silnie różniących się parametrach neutronowych i różnej porowatości. Pewne szczegółowe zagadnienia związane z obliczeniami Monte Carlo dla profilowań sondą neutronową poruszane są w publikacjach autorów zagranicznych, np.: [Mendoza, 2005], [Mendoza i in., 2010a, 2010b], [Ijasan i in., 2013] czy [Tian i in., 2018]. Na uwagę zasługuje praca [Gardner i Sood, 2010], która przedstawia w skondensowany sposób przegląd zastosowania metod Monte Carlo pod kątem jądrowych metod geofizyki otworowej (nie tylko pod kątem profilowań sondą neutronową). Problemy związane z profilowaniami kątowymi omówione zostały między innymi w pracach: [Xu i in., 2007], [Passey i in., 2005] i [Badruzzaman i in., 2007]. Ostatnia z tych prac porusza dodatkowo problem związany z profilowaniem w cienkich warstwach. Wśród nielicznych prac, w których pokazany jest (wymodelowany numerycznie) wpływ granicy ośrodków o różnych parametrach neutronowych na kształt anomalii rejestrowanej sondą typu neutron-neutron można wymienić dwie pozycje: [Mimoun in., 2011], oraz [Gardner i in., 2007]. Efekt ten omówiony jest znacznie szerzej w niniejszej pracy (Rozdział 6 i 7). W drugiej z wymienionych prac [Gardner i in., 2007] autorzy twierdzą że obserwowane na wymodelowanej krzywej odpowiedzi detektora bliskiego termicznego efekty w pobliżu granicy warstw (zaniżenie/zawyżenie odpowiedzi detektora w stosunku do wartości spodziewanej, czyli tzw. artefakty) są związane ze statystyką obliczeń MCNP. W niniejszej monografii zostało wykazane, że w rzeczywistości tego typu efekty są odzwierciedleniem znacznego, nietypowego zaburzenia pola neutronowego w tym ograniczonym obszarze co zostało szczegółowo omówione w Uzupełnieniu.
  • Item
    Study of the Quark-Gluon Plasma with Hard Probes at the LHC
    (Institute of Nuclear Physics Polish Academy of Sciences, 2018) Otwinowski, Jacek
    Matter that surrounds us comes in a variety of phases that can be transformed into each other by a change of external conditions such as temperature, pressure, and composition. A good example is water that besides the liquid and gaseous phases, features a variety of solid phases [1]. Transitions from one phase to another are often accompanied by drastic changes in the physical properties of the matter, such as its electrical and thermal conductivity, elasticity, or transmittance. One may ask what happens when matter is under extreme conditions of high temperature and/or density. This question is of relevance for the early stage of the Universe as we go backwards in the cosmic evolution. It is also important in understanding of the properties of the inner core of neutron stars, the densest cosmic objects. Here the main players are no longer forces of electromagnetic origin but the strong interaction, which is responsible for the binding of protons and neutrons into nuclei and of quarks and gluons into the hadrons. The first realistic picture of the hadronic matter at high temperature was proposed by Hagedorn in the statistical bootstrap model of hadron production [2], well before the discovery of the Quantum Chromodynamics (QCD) [3]. In this model, hadrons are considered as composite particles (resonances of lighter hadrons), which results in the exponential increase in the density of mass states, r(mh) µ mmh-5=2 h emh=TH, where mh is the mass of a given hadronic state and TH is the Hagedorn temperature. This formula is well verified by summing up the measured hadronic states [4]. A fit to the data yields TH _ 170 MeV. An immediate consequence of the model is that the logarithm of the partition function of such hadron resonance gas and, thus, all thermodynamical quantities diverge at the limiting temperature T = TH. In 1973, Politzer [5], Gross and Wilczek [6] discovered that the QCD has properties of asymptotic freedom, i.e. the interaction between quarks and gluons weakens as they get closer to one another. It implies that at sufficiently high temperature and/or density, a new phase of deconfied quarks and gluons, referred to as quark-gluon plasma (QGP) [7–11], can be formed. The existence of a new phase was later confirmed in the calculations using the lattice formulation of QCD [12, 13]. Within this picture, the limiting temperature TH is close to the critical temperature for the phase transition between hadrons and quarks and gluons. Moreover, with point-like quarks and gluons the temperature can grow beyond any limits. These results inspired the community to explore the possibility to create and study the quark-gluon plasma by colliding heavy nuclei at high energy. In these collisions, the initial energy density and temperature should be sufficient to create the QGP for a short time. Experimental programmes started simultaneously in 1986 at the Alternating Gradient Synchrotron at the Brookhaven National Laboratory (BNL) and at the Super Proton Synchrotron (SPS) at CERN. Since 2000, the Relativistic Heavy Ion Collider (RHIC) at BNL has been colliding heavy-ions at psNN = 20–200 GeV. A new era of experimental search for the QGP started in 2009, when the Large Hadron Collided (LHC) at CERN became operational. The LHC was designed to collide heavy nuclei up to that of Pb at energy of psNN = 5:5 TeV, which is about 30 times larger than that at RHIC. Author joined A Large Ion Collider Experiment (ALICE) at the LHC in 2007. ALICE is a dedicated heavy-ion detector, which was designed to exploit the unique potential of nucleusnucleus interactions at the LHC energies. The main goal of ALICE is to study the physics of strongly interaction matter at extreme density and temperature, where the formation of the quark-gluon plasma is expected. Author has contributed to these studies using high momentum and/or high mass particles and jets (hard probes) to characterize the thermodynamic and transport properties of the QGP. Author is a key person in the ALICE Collaboration participating in measurements of transverse momentum spectra (pT) and nuclear modification factors of hard probes. This habilitation thesis is based on the results [14–28] obtained by the author in 2010-2018. It consists of 13 chapters, list of figures, list of tables and references. An introduction to the strongly interacting matter at extreme conditions is presented in Chap 1. The experimental apparatus, including ALICE and LHC, is described in Chap. 2. Production of hard probes in high energy nuclear collisions and their interaction with the hot and dense QCD matter in theoretical models is discussed in Chap. 3. The results on the production of hard probes at RHIC are shown in Chap. 4. Properties of QCD matter produced at the LHC determined using measurements of low energy (soft) particles are discussed in Chap. 5. The following chapters contain the results obtained by the author. The pT spectra of charged particles, charged pions, kaons and (anti)protons, D mesons, and charged jets, are presented in Chaps. 6, 7, 8, 9, respectively. The nuclear modification factors determined for charged particles, identified hadrons and jets, are discussed in Chaps. 10, 11 and 12, respectively. A summary is given in Chap. 13.
  • Item
    From Classical to Plasma Tomography
    (Institute of Nuclear Physics Polish Academy of Sciences, 2018) Bielecki, Jakub
    This monograph is an attempt at a comprehensive treatment of tomographic reconstruction methods with the special emphasis on the application in fusion research. Therefore, the main volume of the book is devoted to tomographic inversion methods that are either commonly used in the fusion research or they have just been developed and published by me or other researchers. However, detailed explanation and discussion of plasma tomography principles would not have been possible without giving an introduction to classical tomographic reconstruction methods. By these classical methods, I mean here analytical and algebraic methods commonly applied not only in medicine but also in many different fields such as geophysics, bioscience or material science. Inversion methods applied in plasma tomography significantly differ from classical ones. This is mostly due to the nature of the data collected in tomographic experiments carried out with fusion devices. The algebraic reconstruction method, shortly described in Chapter 5, can be considered as a link between classical tomographic methods described in the preceding part of the book and reconstruction methods that are specific to fusion research. In fact, most of the reconstruction methods used in fusion science belong indeed to the class of algebraic methods. However, due to the fact that measured data sets are sparse and the reconstruction problem is strongly ill-posed, specific methods that include a regularisation are required. This is shown and discussed in Chapter 6. My main motivation in publishing this work was a desire to share, with the widest possible readership, a comprehensive monograph on plasma tomography. I would expect the target audience to be primarily academics, with a special emphasis on graduate and PhD students from plasma physics and fusion research community. I hope that this book can serve as a self-contained resource for PhD students wishing to extend their knowledge on plasma tomography. I tried to present as many practical applications as possible, focusing mostly on the recent advances made with tokamak devices. I assume the Reader is familiar with the basic concepts of plasma physics and thermonuclear fusion, as well as with basic mathematical apparatus such as linear algebra. The introductory chapters and proofs of presented theorems should help the Reader to immerse into the ideas presented through the book. For the sake of clarity, some detailed information and additional proofs are postponed to the appendices.
  • Item
    Searches for New Physics effects in b →sl-sl+ transitions
    (Institute of Nuclear Physics Polish Academy of Sciences, 2017) Chrząszcz, Marcin
    The dissertation aims at presenting the current situation in the measurements of electroweak penguin diagrams dominated decays: b → sl−l+1 . These decays have been a smoking gun for hunting for New Physics effects over many years, but in the last three years the research on these phenomena has intensified due to new measurements. Enormous progress has been made both on the theoretical and the experimental sides to understand the measured deviations from the current Standard Model predictions, referred to in what follows as “anomalies”. The author of this dissertation has been one of the main authors of the angular analysis of B0→ K∗ 0µ+µ− decay in the LHCb experiment, which has been widely regarded as one of the most important results of the flavour physics sector in recent years. He has proposed a method called “the method of moments” to measure the angular terms of this decay, which he has later successfully applied in the measurement itself. Moreover, he has been the driving force behind the two other important analyses in LHCb: the measurement of the angular distribution and branching ratio of the B0→ K∗ 0 (1430)µ+µ− decay, where again the method of moments has been used to obtain the angular coefficients, and the search for the light scalar particle that can be produced in the b → s transitions and that decays to a dimuon pair. In this case no signal has been observed and the upper limits on the branching fraction have been set, later to be used for constraining the inflaton model. The dissertation is organized as follows: the brief introduction is followed by, the second chapter devoted to a theoretical description of rare B decays, where the effective field theory formalism is introduced. Furthermore, the author discusses the current theoretical problems in calculating the Standard Model predictions for the b → sl−l+ processes. Last but not least, the optimised angular observables that are less dependent on the form factors uncertainness are derived. The third chapter describes the experimental apparatus used in the b → sl−l+ measurements. Special focus is put on the sub-detectors that play an important role in the studies of b → sl−l+ transitions. Chapters 4, 5, 6 are devoted to describing the data analyses performed by the author in the LHCb experiment. In Chapter 7 the global analysis of electroweak penguin decays is presented. This kind of global analysis has become extremely popular in the past few years as it helps to constrain and pin down those New Physics models that are likely to be responsible for the observed anomalies. The author of this monograph is involved in one of the biggest collaborations performing New Physics fits, where he is the convenor of the Flavour Working group. Furthermore, the author presents his own study on separating the long distance effects in the B0→ K∗ 0µ+µ−decay. This is the state of the art way of determining those contributions. The chapter ends with a description of possible New Physics models that can explain the observed discrepancies.
  • Item
    Commissioning, operations and monitoring of the large scale tracking system for the ATLAS experiment
    (Institute of Nuclear Physics Polish Academy of Sciences, 2017) Stanecka, Ewa
    This monograph describes the control, operation and performance as- pects of the ATLAS Inner Detector at the Large Hadron Collider at CERN. The Inner Detector is a large system with almost 90 mil- lion readout channels. It combines semiconductor devices (pixels and silicon strip) and straw gaseous detectors to measure trajectories of the charged particles emerging from proton-proton collisions and to reconstruct vertices of the interactions. A specialised Detector Con- trol System designed to allow robust and safe operations of the Inner Detector is described. The details of the environmental management projects as well as the tools for monitoring of the radiation levels inside the Inner Detector volume and protection against beam induced acci- dents are given. The improvements done in the Inner Detector during the long technical stop at the LHC to prepare for proton bunches col- lisions every 25 ns, with the energy √ s =14 TeV and instantaneous luminosity ∼ 1 × 10 34 cm− 2 s− 1 are mentioned. Finally, the combined Inner Detector tracking performance at the beginning of the second season of data taking at LHC is presented.
  • Item
    Wpływ kontrolowanej modyfikacji struktury i morfologii planarnych i liniowych nanostruktur metalicznych na ich własności magnetyczne na przykładzie wielowarstw Fe/Cr i nanodrutów Co
    (Institute of Nuclear Physics Polish Academy of Sciences, 2017) Kąc, Małgorzata
    In this monography, we have demonstrated the results of an investigation of the influence of controlled modification of the morphology and structure on magnetic and magnetotransport properties of Fe/Cr multilayers representing planar nanostructures. Moreover, the structural and magnetic properties of cobalt nanowires being an example of linear objects were studied. The aim of the multilayer studies was to learn about the interface structure between Fe and Cr layers and then analyse the impact of this parameter on the giant magnetoresistance effect. Samples were prepared by vapor deposition in ultrahigh vacuum conditions. The layer morphology and interface structure were analyzed using the techniques of high resolution transmission electron microscopy on a cross section of the sample (HRTEM) also operated in the scanning mode (STEM), low energy electron diffraction (LEED), energy dispersive spectroscopy (EDS), Auger electron spectroscopy (AES), X-ray reflectometry (XRR) and conversion electron Mossbauer spectroscopy (CEMS). The results confirmed the slight interface roughness in the area of up to 2 - 3 atomic layers and layer continuity in all samples. An analysis of the magnetic properties carried out based on measurements of magnetooptical Kerr effect or SQUID magnetometer, indicated the antiferromagnetic coupling of Fe layers. In order to analyse the impact of interface roughness on the giant magnetoresistance value, the multilayer systems have been subjected to the controlled modification by the introduction of Bi, Pb or In surfactants as well by gold or iodine swift heavy ion irradiation. The used modification methods, depending on the type and intensity, caused the interface smoothing, which is preferably influenced by the presence of the buffer layer, the introduction of bismuth atoms as surfactant, as well as Au and I ion irradiation of polycrystalline trilayers with low fluences. In addition, we have observed changes in the magnetic arrangement of Fe layers, manifested by a decrease of antiferromagnetic coupling fraction in multilayers modified by In surfactant and in the majority of irradiated samples. The increase of the antiferromagnetic coupling fraction was observed for trilayers irradiated with low fluences, for which interface smoothening was reported. It has been demonstrated that the positive effect of the buffer layer caused the stabilisation of the antiparallel arrangement of magnetization vector in iron layers. These changes affected the giant magnetoresistance effect, which increased with increasing interface roughness caused by interface corrugation and less by interdiffusion, with kept antiferromagnetic coupling of Fe layers. An increase of interface roughness resulted mainly from interdiffusion, and it was responsible for magnetoresistance effect decrease amplified by decrease of antiferromagnetic coupling fraction. Modification of interfaces with swift heavy ions showed that irradiation with small ion fluences gives the best chance of interface smoothing and keeping antiferromagnetic ordering of the systems. The aim of investigation of the structural and magnetic properties of cobalt nanowires was to optimise their morphology, as well as electrodeposition parameters leading to the achievement of nanoobjects showing a magnetic anisotropy with an easy axis of magnetization along the nanowire and characterised by the high values of coercivity and squareness of the hysteresis loop. Cobalt nanowires were electrodeposited in the polycarbonate membranes with a diameter in the range of 30 nm to 200 nm. The nanowire length varied from 1.5 μm to 6 μm. The impact of electrodeposition parameters, such as temperature and pH of the electrolyte and the cathodic voltage on the properties of the nanowires, was also investigated. It was observed that the optimal to achieve magnetic arrangement along nanowire axis and the greatest values of the coercive field, are: small diameters (30 nm ÷ 50 nm) and small length of the nanowires (1.5 μm), low electrolyte temperature (20 °C - 25 °C), low cathodic voltage (-0.9 ÷ V - 1.0 V) and moderate pH value (3.2) with a tendency to increase in order to reduce hydrogen evolution (3.8). These observations provide the basis for ongoing studies of composed nanowires made from alternating electrodeposited layers of Co and Cu, Fe and Cu as well as Fe and Cr layers.
  • Item
    Pomiar funkcji struktury protonu w obszarze małych przekazów czteropędu Q2 na akceleratorze HERA
    (Institute of Nuclear Physics Polish Academy of Sciences, 2015) Łobodzińska, Ewelina