Liste des offres de thèses du laboratoire.
The predictivity of the Standard Model (SM) of particle physics remains unchallenged by experimental results. After the tantalizing discovery of the Higgs boson at LHC, the measurements of properties such as its mass, spin, parity and its couplings with other SM particles have confirmed its SM-like nature. This goes hand in hand with the absence of direct signs of TeV physics beyond the SM from current direct searches.
The excellent performance of the LHC in terms of delivered luminosity allowed the ATLAS and CMS experiments to set stringent limits on new particle masses well beyond the EW scale, thus worsening the naturalness problem. If the new physics scale lies well above the present experimentally probed energies, one would be left with the only experimental perspective of searching for deviations within the LHC precision measurements, and with no solid theoretical explanation of why the new physics should be so unnaturally heavy. There is, however, another logical possibility: new physics may be hidden at lower energies although weakly coupled to the SM known particles, so that its signals could be swamped in the SM background.
The possibility of recording low energy signatures rely on the capacity of processing the enormous amount of data provided by the LHC. For this ATLAS uses an advanced two-level trigger, the first level implemented in custom hardware, and High Level Trigger that relies on selections made by algorithms implemented in software. Moreover, a series of detector upgrades have been realized to face the challenges posed by the current Run 3 LHC high luminosity data taking. This allows the implementation of efficient algorithms to trigger low energy thresholds at much harsher LHC collision conditions.
In light of the above-mentioned theoretical scenarios, only little can be predicted in a model-independent way about the couplings of new light resonances to the SM. Therefore, we envisage considering specific models, focusing on particular final states. An example of this low mass resonance is an axion-like particle (ALP), which further acts as a mediator to Dark Matter. We will determine the region of parameter space where all existing collider, astrophysical, cosmology constraints are respected, and the relic density is obtained. We will then study the prospects of producing such an ALP which subsequently decays to b-anti-b pairs at the LHC. This will allow us to pinpoint novel signatures, providing a complementary handle on the models in question, signatures that will be then looked for by the candidate, analyzing ATLAS data recorded during Run 3.
L'Université d'Aix-Marseille et le groupe ATLAS du CPPM proposent une thèse (déjà financée) dans le domaine de la conception micro-électronique et la caractérisation de capteurs CMOS déplétés et pixel hybrides pour de futures applications auprès de collisionneurs de particules.
Le Centre de Physique des Particules de Marseille (CPPM) est une unité mixte de recherche relevant à la fois du Centre National de la Recherche Scientifique (CNRS) et de l'Université d'Aix-Marseille. Le CPPM est un acteur de premier plan pour la recherche en Physique des Particules, Astroparticules et la Cosmologie Observationnelle. Le CPPM est présent dans les plus grandes expériences en physique actuellement en cours ou en développement à travers le monde.
Le groupe ATLAS du CPPM a une longue expérience dans le développement de technologies pixels hybrides. Il prend part en ce moment au projet de jouvence du détecteur de traces central de l'expérience ATLAS (projet ITk), qui cible la phase de Haute Luminosité du Grand Collisionneur de Hadrons du CERN (projet HL-LHC), et participe aussi au développement de technologies pour de futures applications auprès de collisionneurs de particules.
Nous recherchons des candidats pour rejoindre notre équipe et s'impliquer dans le développement de capteurs CMOS et de détecteurs pixels hybrides dans un nud de process avancé, dans le contexte de plusieurs collaborations internationales et projets.
Nous recherchons des candidats motivés qui ont des compétences ou une volonté forte d'acquérir des compétences dans les domaines suivants :
- Micro-électronique et conception de circuits.
- Procédés technologiques dans le domaine des semiconducteurs siliciums.
- Conception CMOS dans un noeud avancé.
- Outils de conception, simulation, design et vérification.
- Vérification expérimentale, conception de systèmes de test et de software d'acquisition.
- Test de prototypes complexes, acquisition et analyse de données.
Pour plus d'informations, contacter : barbero@cppm.in2p3.fr
Acte de candidature sous:
https://emploi.cnrs.fr/Offres/Doctorant/UMR7346-ANNPOR-077/Default.aspx
The data acquisition and trigger electronics of the ATLAS liquid argon calorimeter will be fully replaced as part of the second phase of upgrade of the ATLAS detector. The new backend electronics will be based on high-end FPGAs that will compute on-the-fly the energy deposited in the calorimeter before sending it to the trigger and data acquisition systems. New state-of-the-art algorithms, based on neural networks, are being developed to compute the energy and improve its resolution in the harsh conditions of the HL-LHC.
The candidate is expected to take a role in the development of data processing algorithms allowing to efficiently compute the energies deposited in the LAr calorimeters in the high pileup conditions expected at the HL-LHC. These algorithms will be based on AI techniques such as recurrent neural networks will be adapted to fit on hardware processing units based on high-end FPGAs. The successful candidate will be responsible of designing the AI algorithms, using python and keras, and assessing their performance. The candidate will also assess the effect of employing such algorithms for electromagnetic object reconstruction (especially at trigger level). She/he will work closely with the engineers designing the electronic cards at CPPM in order to adapt the AI algorithm to the specifics of FPGAs. Candidates with a strong interest for hardware will be encouraged to take part in the design of the firmware to program the FPGAs.
Prior knowledge of keras, python and C++ is desirable but not mandatory.
La physique auprès du Large Hadron Collider (LHC) du Centre Européen de Recherche Nucléaire (CERN) constitue l'axe de recherche prioritaire de la communauté mondiale en physique des particules. ATLAS est l'une des deux expériences généralistes installées auprès de cet accélérateur qui a co-découvert le boson de Higgs en juillet 2012, pièce essentielle pour la compréhension des interactions fondamentales et de l'origine de la masse des particules élémentaires. Son programme de physique est néanmoins plus vaste et s'étend à l'étude des propriétés du boson de Higgs et plus généralement à l'obtention des premiers signes de physique au-delà du Modèle Standard de la physique des particules.
Le groupe ATLAS du Centre de Physique des Particules de Marseille (CPPM) est fortement impliqué dans ce programme scientifique, avec notamment une grande expertise liée au calorimètre électromagnétique. Ce dernier est un élément clé pour l'identification et la mesure de l'énergie des électrons et des photons, qui ont fait le succès de la découverte du boson de Higgs. Le groupe est également en pointe sur l'étude de ce boson et la recherche de supersymétrie dans la campagne de prise de données 2015-2018 dite « Run 2 » et celle en cours, dite « Run 3 », avec des implications majeures dans plusieurs analyses avec des particules électromagnétiques dans l'état final. De plus, en vue de l'amélioration des performances de l'accélérateur, phase de haute luminosité du LHC (HL-LHC), ce calorimètre fait l'objet d'un important programme d'évolution de son système de lecture et de déclenchement auquel participe activement le groupe du CPPM. Le « Run 3 » du LHC a débuté en 2022, et devrait se poursuivre jusqu'en 2025. Les données des collisions protonproton qui seront collectées au cours de cette période par l'expérience ATLAS permettront de poursuivre le large programme de recherche en physique des particules, améliorant les mesures du paramètres du Modèle Standard (MS) et les limites sur les phénomènes de nouvelle physique, avant la phase de haute luminosité du LHC (HL-LHC) à partir de 2029.
Parmi les processus étudiés, la recherche de la production de paires de boson de Higgs pp->HH fait figure de nouvelle frontière, car son observation permettrait de réaliser une mesure directe de l'auto-couplage de cette particule scalaire prédite de longue date, mais découverte seulement en 2012. Ce processus prédit par le MS est particulièrement rare, et l'analyse des données du HL-LHC devrait être nécessaire pour l'observer. Néanmoins, des théories au-delà du MS prédisent l'existence de nouvelles particules scalaires (S), qui pourraient être produites dans les collisions protonproton en association avec un boson de Higgs: pp->SH. L'équipe ATLAS du CPPM est très impliquée dans la recherche de processus pp->HH, notamment dans le canal où une paire de quark-antiquark bottom et deux photons sont présents dans l'état final.
Le sujet de thèse proposé vise à rechercher des processus pp->SH avec les données du « Run 3 », dans le même canal de désintégration. L'étudiant.e participera à cette analyse, aux études nécessaires de performance du détecteur touchant aux domaines d'expertise de l'équipe, notamment sur les aspects liés à la reconstruction et l'identification des photons, ainsi qu'à l'opération du calorimètre à argon liquide. Dans ce cadre l'étudiant.e sera amené à effectuer de nombreux séjours au CERN, et son travail de recherche combinera des analyses de physique (sur données et simulation) ainsi que l'étude et la mise en uvre de systèmes expérimentaux.
L'étude de la production de paires de bosons de Higgs suscite un intérêt grandissant dans la communauté de physique des particules, en particulier dans la perspective de la phase Haute-Luminosité du LHC. En plus de l'auto-couplage du champ de Higgs, le couplage VVHH est également un paramètre important pour parfaire notre compréhension de la brisure de symétrie électrofaible, qui peut être sondé au travers de la recherche d'événements di-Higgs dans le mode de production VBF.
Le détecteur ATLAS est idéal pour ces études, avec son design optimisé pour reconstruire et identifier la plupart des produits de désintégration des particles du Modèle Standard produites dans les processus rares impliquant des bosons de Higgs, tels que les modes de production di-Higgs. Cette thèse comportera un travail sur l'optimisation des algorithmes utilisés pour l'identification des jets produits dans l'harmonisation de quarks b pour l'upgrade du détecteur ATLAS prévue pour la phase Haute-Luminosité du LHC. Ces algorithmes jouent un rôle majeur pour tous les états finaux impliquant des quarks b, produits dans la désintégration du quark top ou du boson de Higgs par exemple.
Des contraintes très fortes sur le couplage VVHH peuvent déjà être obtenues avec le dataset du LHC au Run 3, en particulier grâce à la combinaison de régions à basse et haute m(HH). Les analyses correspondantes sont au coeur d'un effort de recherche collaboratif impliquant plusieurs laboratoires français membres de la collaboration ATLAS au CERN. Cette thèse s'inscrirait dans le cadre de cet effort de recherche, avec un focus particulier sur l'analyse de l'état final bbtautau résolu, bénéficiant de la forte expertise du groupe ATLAS au CPPM dans les domaines du b-tagging et des analyses di-Higgs [1-2].
Les candidatures devront inclure un CV, une lettre de motivation, les relevés académiques de la license au master et les contacts de deux personnes pouvant fournir des lettres de référence.
[1] ATLAS flavour-tagging algorithms for the LHC Run 2 pp collision dataset https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/FTAG-2019-07/
[2] Search for Higgs boson pair production in the final state with two bottom quarks and two photons in pp collisions at ?s = 13 TeV with the ATLAS detector https://atlas.web.cern.ch/Atlas/GROUPS/PHYSICS/PAPERS/HDBS-2018-34/
Les désintégrations violant la saveur leptonique, interdites dans le modèle standard, font partie des sondes les plus prometteuses pour la recherche de nouvelle physique. Au vue des récentes anomalies mises en évidence par l'expérience LHCb dans les tests de l'universalité leptonique dans les processus et , l'intérêt pour les désintégrations violant la saveur leptonique faisant intervenir un lepton tau dans l'état initial ou l'état final est fortement renforcé. En particulier, plusieurs modèles de nouvelle physique prévoient des rapports d'embranchement juste au-dessus des limites expérimentales actuelles pour les canaux et mais aussi pour les transitions (FCNC) .
L'expérience Belle II, situé à KEK au Japon, a commencé sa prise de données en 2019, dans le but de multiplier la statistique enregistrée par son prédécesseur Belle par un facteur 50 d'ici 2031.
Le but de cette thèse est d'analyser les données de Belle II afin d'obtenir les meilleures limites expérimentales sur les désintégrations qui violent la saveur leptonique du type où X est un système hadronique et un electron ou un muon et sur les transitions , comme .
Activités :
Analyse de données, utilisation de méthodes de machine learning, en particulier Graph Neural Networks, participation à la prise de données, participation aux taches de service, activités de vulgarisation et dissémination.
Contexte de travail
Cette thèse aura lieu au CPPM, Marseille (https://www.cppm.in2p3.fr/web/en/index.html). Des missions à KEK pour participer aux réunions de collaboration, ainsi que des voyages plus longs pour participer à la prise de donnée, sont prévus.
Informations complémentaires :
La candidate / le candidat doit posséder un diplôme de Master (ou équivalent) en physique, ou devra le posséder avant la date de début de thèse.
Les candidatures doivent comprendre un CV, une lettre de motivation ainsi que le nom de trois personnes de référence pouvant fournir des lettres de recommandation.
Références:
https://arxiv.org/abs/1808.10567
https://arxiv.org/abs/1903.11517
https://arxiv.org/pdf/2103.16558.pdf
https://arxiv.org/pdf/1806.05689.pdf
https://arxiv.org/abs/2208.14924
The CTA (Cherenkov Telescope Array) is a worldwide project to construct the next generation ground based very high energy gamma ray instrument [1]-[2]. CTA will use tens of Imaging Air Cherenkov Telescopes (IACT) of three different sizes (mirror diameter of 4 m, 12 m and 23 m) deployed on two sites, one on each hemisphere (La Palma on the Canary Islands and Paranal in Chile). The observatory will detect gamma-rays with energy ranging from 20 GeV up to 300 TeV by imaging the Cherenkov light emitted from the charged particle shower produced by the interaction of the primary gamma ray in the upper atmosphere.
The unconventional capabilities of CTA will address, among others, the intriguing question of the origin of the very high energy galactic cosmic rays by the search for galactic sources capable of accelerating cosmic rays up to the PeV energies, called PeVatrons. Recently, the Supernova Remnant (SNR) G106.3-2.7 has been indicated as a highly promising PeVatron candidate [4]. In fact, G106.3-2.7 emits gamma-rays up to 500 TeV from an extended region (~0.2o) well separated from the SNR pulsar (J2229+6114) and in spatial correlation with a local molecular cloud.
The CTA observatory completion is foreseen in 2025 but the first Large-Sized Telescope (LST1) is already installed and taking data in La Palma. LST1 is placed very close to the two MAGIC telescopes [3], which are one of the presently active IACT experiments. This configuration permits to perform joint observations of the same source with the three telescopes LST1+MAGIC increasing the effective detection area and improving the energy and angular resolution, thanks to the enhanced quality reconstruction of stereoscopic data. While the LST1+MAGIC telescopes cannot reach enough sensitivity to access energies above 100 TeV, they can provide exclusive and unprecedented data for establishing the spectral morphology of this exciting PeVatron candidate in the 100 GeV-100 TeV energy region. A campaign of joint observations of G106.3-2.7 will start in 2022 and will continue in the following years.
The PhD project will be on the analysis of the data of the coming campaign, its ambitious target will be to contribute in disclosing the hadronic or leptonic nature of this promising PeVatron. In order to maximize the effective area at very high energy, G106.3-2.7 will be observed at large zenith angle (LZA), 62o-70o, which represents a challenging detection condition. The project will start with the development and verification of the joint LST1+MAGIC stereo reconstruction chain [5] at LZA, using Monte Carlo (MC) data. This MC study will aim to optimize the data reconstruction and selection in order to reach a high quality Instrument Response Function and sensitivity for this specific source. Real data will be then reconstructed so as to achieve both a morphological and a spectral reconstruction of the source in the 100 GeV-100 TeV energy range. Finally, the high-quality LST1-MAGIC data will be used for a multiwavelength analysis that will compare different emission models and try to disentangle the nature of the source.
The project will include the participation to the LST1+MAGIC observation campaign with stays of four weeks in the Roque de los Muchachos Observatory in La Palma.
The CPPM CTA group works since several years in the building and commissioning of the LST1 telescope and on the preparatory studies for the research of galactic PeVatrons with CTA [6][7].
Candidates should send their CV and motivation letter as well as grades (Licence, M1, M2) to cassol@cppm.in2p3.fr and costant@cppm.in2p3.fr before 10/4/2022. Applications will be selected on the base of qualifications and an oral interview.
References:
[1] Science with the Cherenkov Telescope Array: https://arxiv.org/abs/1709.07997
[2] https://www.cta-observatory.org/
[3] MAGIC Collaboration, Aleksi?, J. et al. Astropart. Phys. 72 (2016) 7694.
[4] Z. Cao et al. Nature, 594, 3336 (2021); M. Amenomori et al. Nature Astronomy, 5, 460464 (2021)
[5] https://github.com/cta-observatory/magic-cta-pipe
[6] O. Angüner et al. Cherenkov Telescope Array potential in the search for Galactic PeVatrons, ICRC 2019
[7] G. Verna et al. HAWC J2227+610: a potential PeVatron candidate for the CTA in the northern hemisphere, ICRC 2021
https://www.cppm.in2p3.fr/~mperrint/PhDOffer/Offer2023.html
Sujet d'études passionnantes, la mer se révèle également être un instrument de mesure unique comme l'ont démontré les détecteurs ANTARES et ORCA qui, depuis plus d'une décennie, utilisent l'eau des abysses de la baie de Toulon pour détecter les neutrinos. Ces dernières décennies, les études conduites sur ces particules ont été jalonnées de découvertes retentissantes donnant lieu à l'attribution de trois prix Nobel. Il est aujourd'hui établi que les propriétés quantiques de ces particules pourraient détenir la clef d'un des plus profonds mystères de la physique fondamentale~: l'origine de la matière dans l'Univers. À présent, il reste à relever le défi expérimental que la mesure de ces propriétés quantiques représente. De récentes études ont montré qu'une nouvelle méthode expérimentale le tagging pourrait permettre d'effectuer ces mesures avec une précision record en s'appuyant sur la technologie de détection sous-marine des neutrinos [Perrin-Terrin, M. (2022)].
Les neutrinos (?) existent selon trois espèces, appelées saveurs~: électronique (?e), muonique (?µ) et tauique (??). Les expériences de physique des neutrinos visent à mesurer, en fonction de l'énergie des neutrinos, la probabilité qu'ils ont de changer de saveurs durant leur propagation. Ces expériences consistent donc à comparer les caractéristiques des neutrinos avant et après propagation. Le dispositif expérimental conventionnellement employé par ces expériences est représenté schématiquement sur la partie gauche de la Figure 1.
https://www.cppm.in2p3.fr/~mperrint/Tagging/tagging.svg>
Ces études expérimentales sont rendues difficiles par la très faible probabilité qu'ont les neutrinos d'interagir dans le détecteur. En effet, la majorité d'entre eux le traversent sans laisser de traces. Ainsi pour collecter des échantillons de neutrinos suffisamment grands, les expériences requièrent des faisceaux de protons intenses, O(1) MW, et des cibles instrumentées de très grandes taille, O(10)kton. D'autre part, les mécanismes physiques qui décrivent les interactions des neutrinos sont mal connues et très variées. Inférer les propriétés des neutrinos à partir de ces interactions est donc très difficile et peu précis.
La méthode du tagging contourne ces difficultés en proposant de déterminer les caractéristiques des neutrinos à partir des désintégrations, ?+,K+?µ+?µ les générant. En s'appuyant sur les lois de conservation de l'énergie et de l'impulsion (p sur la Figure 1 à droite), les caractéristiques de chaque ?µ sont obtenues à partir de celles du ?+ et µ+ ou du K+ et µ+ qui sont facilement mesurables pour des particules chargées en utilisant des plans consécutifs de pixels en silicium (TAGGER sur la Figure 1).
Cette méthode permet d'estimer l'énergie des neutrinos avec une précision 10 fois supérieure à celle des méthodes basées sur leurs interactions. L'énergie de chaque neutrino étant ainsi connue,~il ne reste plus qu'à déterminer sa saveur après propagation. Une cible instrumentée moins finement que dans les dispositifs conventionnels est alors suffisante pour cette tâche de classification. Il est donc possible d'utiliser de grands volumes naturels d'eau de mer instrumentés avec des capteurs de lumières tels qu'ANTARES et ORCA représentés sur la Figure 2. Les masses d'eau ainsi instrumentées atteignent plusieurs méga-tonnes, ce qui est 100 fois supérieur aux cibles conventionnellement utilisées.
https://www.cppm.in2p3.fr/~mperrint/Tagging/km3net-m-destelle.jpg>
Technologiquement, le tagging repose sur deux développements~innovants : celui de pixels en silicium capables de détecter des taux élevés de particules~(1010part./s/cm2) et, celui de lignes de faisceaux de neutrinos non-pulsées dans le temps. Ces dernières permettent d'abaisser significativement le taux de particules des faisceaux de neutrinos, qui est normalement très haut (1018part./s/cm2), et donc d'instrumenter celles-ci avec des pixels pour détecter les ?+'s et µ+'s. Une preuve de principe est en cours en utilisant les données recueillies par l'expérience NA62 au CERN qui a développé, pour d'autres applications, les premières versions de ces technologies. L'échantillon nécessaire à cette étude est en train d'être collecté depuis 2022. Les premières données ont permis de mettre en place les outils d'analyse et indiquent qu'un échantillon significatif (O(10)) de neutrino tagués seront collectés jusqu'à la fin de la prise de données en 2025.
Le but de cette thèse est la conception et la preuve de principe d'un système dédié à la détection de neutrinos sur la technique du tagging. La conception de ce système sera fondée sur l'optimisation des performances en estimation et en détection, c'est-à-dire en prenant en compte notamment les incertitudes sur la ligne de faisceau et sur les capacités du détecteur à pixel. Ce travail de «~co-conception~» consistera à développer des études statistiques sur la performance du système en amont de sa construction.
Ce travail se fera en collaboration avec l'équipe Signal et Tracking basée à l'université de Toulon, spécialiste des traitements statistiques et avec les ingénieurs faisceau du CERN.
Le premier travail de l'étudiant.e sera de mettre en place un simulateur de la ligne instrumentée en identifiant les incertitudes du système. Le deuxième travail sera de choisir la configuration expérimentale qui permet d'aboutir à des bornes de performances (e.g. borne de Cramer-Rao pour l'estimation de l'énergie) optimale. Le recours à une borne de performance permet de réaliser une étude indépendante de la technique d'estimation (ou de détection). Celle-ci ne dépend que de la modélisation du système, et en particulier à ses incertitudes. Ce n'est qu'une fois que la configuration a été choisie, si les performances sont satisfaisantes, que l'on abordera le troisième travail qui consiste à construire les algorithmes d'estimation et de détection.
Enfin, l'étudiant(e) pourra tester ces algorithmes sur le dispositif expérimental NA62 au CERN. En effet, bien qu'étant dédié à d'autre études, ce dispositif est accessoirement une expérience de physique des neutrinos à échelle réduite qui peut être utilisé pour établir la première preuve de concept expérimentale du tagging [De Martino, B 202]. Ainsi, l'étudiant.e participera aux prises de données au CERN et analysera les données collectées.
Détecteur à Neutrinos Sous-Marin, Physique des Neutrinos, Co-conception d'expériences, Science des Données
Compétences/connaissances pré-requises pour le sujet :
Neutrinos are unique messengers to study the high-energy Universe as they are neutral and stable, interact weakly and therefore travel directly from their point of creation to the Earth without absorption and path deviation. Nowadays, the sources of very high-energy cosmic rays are still unknown. Doing neutrino astronomy is a long quest for neutrino telescopes. Several observational hints have been detected by ANTARES and IceCube (active galaxy nuclei, tidal disruption events).
KM3NeT is the second-generation neutrino detector in the Mediterranean Sea. It will be distributed in two sites: a low energy site ORCA in France (1 GeV-10 TeV) and a high energy site ARCA in Italy (1 TeV-10 PeV). Its main goals are to study of neutrino oscillations, with as flagship measurement the determination of the neutrino mass ordering and to perform neutrino astronomy. Both detectors are already collecting data with the first detection units and will soon reach significantly better sensitivities for the detection of cosmic neutrinos surpassing by far the ANTARES one. Thanks to the unprecedented angular resolution, the extended energy range and the full sky coverage, KM3NeT will play an important role in the rapidly evolving multi-messenger field. A good sensitivity over such a large energy coverage can only be obtained by combining the data of the two detectors. KM3NeT will achieve a precision of <0.1 degrees for the muon neutrino tracks at very high energies, and <1.5º for the cascade events (electron, tau charge current + all flavor neutrino neutral current interactions). With KM3NeT, we will be able to perform a very efficient all-flavour neutrino astronomy.
The main goal of the thesis is to develop multi-messenger analyses in the two KM3NeT detectors. With the early data, we have performed a lot of studies to understand the behaviour of the detectors by setting the calibration procedures and by implementing very detailed Monte Carlo simulations that reproduce quite well the data taking. It has also permitted to start the development of the online analysis framework. Most of the elements are in operation (online reconstruction, neutrino classifier, reception of external transient triggers, alert sending). At the beginning of the PhD, the student will have to develop and implement efficient all-flavour neutrino selection over the atmospheric backgrounds. These selections will be performed using advanced analysis methods such as machine learning algorithms, that will be used to classify the nature of all the KM3NeT events between neutrino tracks (charged current muon neutrinos), neutrino cascades (all others neutrino flavours) and background events (atmospheric muons and neutrinos). The second step of the PhD will be to use these neutrino streams to look for time and space correlation with external triggers from electromagnetic transients, gravitational waves and high-energy neutrinos. This correlation analysis will be developed in two steps, starting with the implementation of a simple counting analysis that looks for a signal excess in a pre-optimized region of interest and in a given time window. For the most interesting neutrinos, the PhD student will also participate to the development of the alert sending system and the multi-wavelength follow-ups (radio, visible, X-ray and VHE). The student will have to develop the neutrino filters based on the false alarm rates of those alerts, their energies and angular resolutions Real-time multi-messenger campaigns are crucial in unveiling the sources of the most energetic particles and the acceleration mechanisms at work. The student will also participate to set the multi-wavelength follow-up of the KM3NeT alerts.
The candidate should have a good background in astroparticle physics and astrophysics. The interest in the data analysis is expected together with knowledge of statistics. The analyses will be performed using C++, Python and Root on Linux platforms.
KM3NeT: http://www.km3net.org
KM3NeT/ORCA (Oscillation Research with Cosmics in the Abyss) is a deep sea neutrino telescope currently under construction at a depth of 2500m in the Mediterranean Sea off the coast of Toulon. KM3NeT/ORCA is optimised for the detection of low energy (3-100 GeV) atmospheric neutrinos and will allow precision studies of neutrino properties. Currently the detector takes data with 15 detection strings which instrument a volume of about 1Mton - much larger than underground detectors with a similar science program. Several years of data are available, waiting to be analysed.
The task of the student is to participate in data taking, construction and calibration of the KM3NeT/ORCA detector and to analyse several Mton-years of neutrino data. This will allow for a cutting edge measurement of the atmospheric neutrino oscillation parameters and a first estimation of the neutrino mass ordering.
Links:
https://arxiv.org/abs/1601.07459
https://arxiv.org/abs/2103.09885
Vingt ans après la découverte de l'accélération de l'expansion de l'univers par des mesures de supernova, la sonde supernova reste le moyen le plus précis de mesurer les paramètres de cette période récente de l'histoire de notre univers dominée par ce qu'on appelle l'énergie noire.
Les mesures de précision qui pourront être effectuées par la sonde supernova seront un élément crucial qui, en combinaison avec d'autres sondes (LSS, lentilles faibles, CMB, etc.), permettra d'établir des contraintes fortes sur la nature de l'énergie noire et d'explorer des déviations possibles par rapport à la relativité générale. Cela sera rendu possible grâce aux observations exceptionnelles de supernovas que fournira le LSST, avec une combinaison de statistiques énormes et une précision d'étalonnage extrême.
L'observatoire Vera Rubin termine sa construction en 2023 et sera mis en service en 2024. Le Large Survey of Space and Time (LSST) démarrera à plein régime au début de 2025, grâce à son télescope de 8,4 mètres équipé d'une caméra de 3,2 milliards de pixels, la plus puissante jamais construite.
Ce télescope prendra une photo de la moitié du ciel toutes les trois nuits pendant dix ans. Ce relevé permettra de mesurer des milliards de galaxies avec une grande précision et de suivre la variation dans le temps de tous les objets transitoires. Avec de nombreuses autres études astrophysiques, ce sera une machine très puissante pour déterminer les paramètres cosmologiques à l'aide de nombreuses sondes différentes et, en particulier, elle imposera de fortes contraintes sur la nature de l'énergie noire. Le projet LSST vise à découvrir jusqu'à un demi-million de supernovae, dont beaucoup pourront être utilisées pour sonder la cosmologie. Avec une amélioration de deux ordres de grandeur des statistiques par rapport à l'ensemble des données actuelles, cela permettra de tester avec précision les paramètres de l'énergie noire, de nouveaux tests de la relativité générale et imposera également de nouvelles contraintes sur l'isotropie de l'univers.
Dans cette thèse, nous proposons de préparer et de participer à la première analyse des données de supernovas de LSST en mettant l'accent sur la mesure du taux de croissance des structures. La préparation sera effectuée en travaillant sur la mesure photométrique précise et la sélection photométrique des supernovas de type Ia ainsi que leur lien avec les propriétés de leur galaxie hôte. Ces deux points et les effets de sélection sont parmi les plus importantes sources d'erreurs systématiques et tout travail pour réduire et atténuer ces sources d'erreurs aura un impact significatif sur la mesure finale. Une telle étude a déjà démarré pour les données du Zwicky Transient Facility (ZTF) qui observe depuis 2018. Elle servira de base pour le développement de l'analyse LSST et une possible combinaison LSST/ZTF.
Le groupe LSST du CPPM est déjà engagé dans des travaux de photométrie de précision pour LSST et ZTF avec une implication directe dans la validation des algorithmes au sein de DESC/LSST. Le doctorant travaillera dans ce cadre en utilisant un pipeline d'analyse complet construit avec ces outils, qu'il contribuera à améliorer, et qu'il appliquera aux données ZTF, puis aux données LSST pour participer à la première analyse DESC.
The Standard Cosmological Model has passed many precise observational tests in both the early and late-time universe. Nonetheless, the Cosmological Model still suffers from some important observational and theoretical difficulties. On the observational side, there are discrepancies between different independent measurements of the expansion rate of the Universe, the Hubble constant (H0).
Gravitational waves (GWs) open a new opportunity to shed light on the H0-tension. Differently from SNIa, GWs sources are unique tracers of the luminosity distance and can therefore be used to measure the expansion history of the Universe through the distance-redshift relation (Schutz, Nature 1986). These GW detections used as standard sirens provide independent measurements of H0. However, one of the key ingredients is precisely to obtain an independent measurement of the redshift of the galaxy that hosted the merger. In case the GW event is detected together with its electromagnetic (EM) counterpart (bright standard sirens), the redshift information is inferred from the unique identified host galaxy. In the absence of EM counterpart, which concerns the ~100 GW observations without an identified host galaxy, GW events are called dark standard sirens. Dark sirens require knowledge of the position and redshift of the ensemble of potential host galaxies within a volume of confidence. Among the different ways to extract the redshift information from GW sources, a promising method is to use galaxy surveys.
The proposed PhD project aims to establish that the new generation of galaxy surveys, such as the Dark Energy Spectroscopic Instrument (DESI) and the Euclid mission, used in the context of gravitational waves can provide competitive constraints on the measurement of the Hubble constant H0, and can overcome the inconsistency between historical measurements from the CMB and from supernovae. To this end, several objectives have been identified: a) to build novel techniques for GW cosmology, by developing new statistical approaches applied to galaxy samples; b) to infer cosmological constraints using current data, with the goal to bring competitive constraints on the Hubble constant H0 compared to other methods; and c) to prepare tomorrow's analyses with the arrival of the next generation observatories.
The Centre de Physique des Particules de Marseille (CPPM) team in Marseille, France, invites applications for a 3-year PhD fellowship in the area of Gravitational Wave (GWs) Cosmology. The PhD programme will be jointly tutored by the Aix-Marseille Université (IPhU [Institute for the Physics of the Universe] / CPPM [Centre de Physique des Particules de Marseille]) and Sapienza University of Rome, in the framework of the CIVIS European University Alliance.
The successful candidate will spend the first half of the PhD programme at the University of Rome Sapienza, working in collaboration with Dr. S. Mastrogiovanni and other scientists of the Virgo group, and will be joining the Virgo collaboration.
(S)he will spend the second half of the PhD programme at CPPM in Marseille working in collaboration with Dr. S Escoffier, Dr. E. Kajfasz and other experts in large galaxy surveys, and will be joining the Euclid consortium.
(S)he will also have the opportunity to travel for collaboration with other French Virgo groups such as the L2IT group in Toulouse led by Dr. N. Tamanini. At the end of the successful PhD programme, a diploma will be released by both Aix-Marseille Université and Sapienza University of Rome.
Application is now open until June 19th, 2023. Interviews will be scheduled during the first 10 days of July. The expected thesis starting date is November 1st, 2023. The PhD funding is acquired.
Applicants must hold a Master of science or equivalent in fundamental physics or astrophysics (or related subjects) by the end of October 2023. A good level of English is necessary. Programming skills (python, C++), strong motivation and interest in cosmology as well as the ability to work in large international collaborations will be valuable assets.
Please send your application to Dr. E. Kajfasz (eric.kajfasz@univ-amu.fr), including:
? A motivation letter (maximum two pages).
? A curriculum vitae
? A brief description of research interest and past achievements
? Two reference letters (Head of the Master's program, supervisor of the Master internship) to be sent directly to eric.kajfasz@univ-amu.fr
? A transcript of all university records (Bachelor and Master)
? A copy of the master's diploma
Although the universe is well described by the concordance model ?CDM, the nature of its components, dark matter and dark energy, remains a major puzzle of modern cosmology. While historically most attention has been paid to the overdense regions, the underdense regions account for about 80 per cent of the total volume of the observable Universe and strongly influence the growth of large-scale structure. As voids are nearly devoid of matter, they have proved to be very promising objects for exploring the imprint of possible modifications of General Relativity (GR) such as f(R) gravity or extended gravity theories.
The RENOIR cosmology team at CPPM focuses on the understanding of the history and composition of our Universe, particularly on its dark components. The team is particularly involved in large spectroscopic surveys Dark Energy Spectroscopic Instrument at Mayall, US and the European space mission Euclid, that will provide the observation of 40 million of galaxies, the largest 3D map of the Universe ever made.
A promising way to probe modified gravity models is to constrain the growth of structure of the Universe using information from Redshift Space Distortions around cosmic voids. The aim of the PhD thesis is on the extraction of cosmological constraints using Alcock-Paczynski deformation information and RSD information around voids, with DESI data which started its observations in June 2021 for 5 years, and the Euclid mission that will be launched in July 2023.
Les différentes observations de l'Univers indiquent depuis une vingtaine d'années que l'expansion de l'Univers s'accélère. Le modèle standard de la cosmologie, connu sous le nom de modèle LCDM, décrit l'Univers comme étant composé de 27% de matière noire et de 68% d'énergie noire. Comprendre la nature de ces deux composantes énergétiques reste l'un des plus grands défis de la physique contemporaine. Les relevés de galaxies de nouvelle génération, comme Euclid ou DESI, permettront de mesurer plusieurs dizaines de millions de spectres de galaxies dans la prochaine décennie et de resserrer les contraintes sur le modèle cosmologique, ou de sonder ses alternatives comme les modèles de gravité modifiée.
Les outils les plus prometteurs pour contraindre les propriétés de l'énergie noire et de la gravité sont basés sur l'observation de grandes structures dans l'Univers. La structure de l'Univers révèle également la présence de grandes régions sous-denses, entourées de filaments de matière. Ces vides cosmiques, qui occupent près de 80% du volume de l'Univers, contiennent très peu de matière, et constituent donc un laboratoire idéal pour tester des scénarios d'énergie noire.
Le sujet de la thèse est d'extraire le signal intégré de Sachs-Wolfe (ISW) par corrélation croisée des vides cosmiques avec le fond diffus cosmologique (CMB). En effet, l'évolution temporelle des potentiels gravitationnels imprime des anisotropies secondaires dans le CMB, en plus des anisotropies primordiales du CMB générées près de la dernière surface de diffusion. Ces anisotropies supplémentaires sont causées par les interactions gravitationnelles des photons du CMB avec la structure cosmique à grande échelle en expansion. Le signal ISW est difficile à mesurer car il est très faible par rapport aux photons primordiaux du CMB. Cependant, la signature de l'effet ISW peut être observée comme un signal non nul dans la corrélation croisée entre la distribution des traceurs d'avant-plan de la matière noire (tels que les galaxies) et la température du CMB, fournissant une sonde directe de l'expansion tardive de l'Univers.
Des travaux récents (Kovacs 2021) ont montré que l'amplitude du signal ISW présente un excès par rapport aux attentes du modèle standard LCDM, au niveau 3 sigma, en particulier lorsque l'étude est appliquée à des superstructures telles que les supervoïdes.
Le projet de thèse se concentre sur l'effet ISW et la corrélation croisée entre le CMB et les vides cosmiques. Le travail de l'étudiant consistera à construire les catalogues de vides à partir des catalogues de galaxies, à développer des estimateurs et des likelihood associés à l'effet ISW et à quantifier l'impact de l'effet ISW sur les paramètres d'énergie noire et de gravité modifiée.
Le CPPM est impliqué dans les deux projets DESI et Euclid, tous deux dédiés à la mesure des paramètres cosmologiques pour contraindre l'énergie sombre et tester les modèles de gravité modifiée. DESI est un relevé de galaxies qui a débuté en 2021 pour 6 ans et qui observera près de 40 millions de spectres de galaxies jusqu'à un redshift de 3,5. La mission Euclid a été sélectionnée par l'Agence spatiale européenne (ESA) en 2011 et sera lancée en 2023 pour sonder l'Univers sur une période de 6 ans. Ces données révolutionneront notre capacité à cartographier l'Univers et à mieux comprendre la nature de l'énergie noire ou à mettre en défaut la relativité générale (GR) d'Einstein.
Il faut appliquer sur le site du CNES:
Un financement CNES/CNRS peut etre obtenu pour cette thèse.
Cette thèse est une thèse financée par l'entreprise Detection Technology (DT) sous l'égide d'un contrat CIFRE.
Description du projet
Nous développons les détecteurs spectrométriques à comptage de photons pour des applications médicales, de sécurité et de Control Non Destructif (NDT).
Le détecteur est l'un des éléments de la chaîne radiographique composée d'un tube des rayons-X, des filtres, du système de refroidissement et d'acquisition des données. Comme pour tout élément du système de détection, les performances des détecteurs sont conditionnées par un ensemble de compromis faits lors du développement. Des outils de simulations sont essentiels et critiques pour concevoir et développer un nouveau produit ou optimiser un détecteur existant à une nouvelle application.
L'objectif du projet consiste à développer des outils de simulation permettant de modéliser la réponse du détecteur CdTe spectrométrique à comptage dans des différentes configurations géométriques et électroniques. La simulation de la réponse du détecteur (DR) est une tâche complexe, car de nombreuses contributions physiques et électroniques doivent être prises en compte. Cette tâche est pour un doctorant à temps plein avec une solide formation en mathématiques et en physique.
Dans un premier temps, l'objectif du doctorant serait de comprendre les différentes contributions physiques et électroniques à prendre en compte pour la modélisation de la réponse du détecteur. La deuxième étape consiste à simuler de manière très réaliste les détecteurs spectrométriques développés à DT (plusieurs géométries et compositions de cristaux de CdTe, différentes tailles de pixels, et diverses électroniques). Des simulations Monte-Carlo et des approches « Deep Learning » seront utilisées pour modéliser la réponse du détecteur. La qualité des résultats simulés sera validée par comparaison avec les données expérimentales de différents détecteurs internes.
Les travaux de thèse seront réalisés au Centre de Physique des Particules de Marseille (CPPM) en collaboration étroite avec l'entreprise Detection Technology basée à Moirans (Isère). Le doctorant sera basé à Marseille et sera amené à réaliser des missions courtes et régulières à Moirans au sein de l'entreprise. Le doctorant sera rémunéré 1800 à 2000 euros/mois par Detection Technology.
Compétences
Nous recherchons une personne motivée avec un bon niveau en programmation et en physique ou sciences des matériaux.
Master en physique appliquée, sciences des matériaux, mathématiques appliquées avec un fort intérêt pour la physique.
compétences en programmation (Python, C, Matlab, Geant4, C++)
formation en physique des rayons-X et des semiconducteurs
formation en électronique est un plus