Aller au contenu

Messages recommandés

Posté

Bonjour Jean-Claude,

 

Sur le blog Resonaances d'Adam Falkowski et dans son article du jeudi 17 mars 2016, il parle du Diphoton, expérience peut-être annonciatrice d'une nouvelle physique. Dans le texte, il parle de looser cuts et de loose cut. A quoi ces coupures correspondent-t-elles ?

En cherchant sur internet j'ai trouvé semble-t-il que cela sert aux reconstructions (?) des trajectoires des particules dans l'accélérateur. Pour cela on utilise des coupures (de quoi?) loose, médium et tight. Enfin, tout cela n'est pas clair pour moi.

Merci à la bonne âme qui me vulgarisera cela, pour autant que cela soit possible.

 

Quand on fait une analyse de données en physique des particules, on part d'un ensemble de collisions pour lesquelles on a enregistré la réponse électronique des détecteurs (dépôts d'énergie dans les calorimètres, point de passage dans les détecteurs silicium, ionisation dans les détecteurs gazeux, etc.) Ces informations sont combinées afin d'identifier les particules, reconstruire les points de désintégration, savoir si une particule est chargée ou neutre, connaître son énergie ou son impulsion...

 

Par exemple pour le "signal" à 750 GeV, il faut identifier deux dépôts d'énergie dans le calorimètre électromagnétique, chacun possédant une forme qui ressemble à celle laissée par une particule électromagnétique (photon ou électron), non associée à une trace chargée (puisqu'on cherche des photons qui sont neutres). Ensuite on combine l'énergie reconstruite des photons et l'angle qui les sépare afin de calculer ce qu'on appelle une masse invariante qui correspond à la masse de la particule qui se serait désintégrée en deux photons si on suppose que ceux-ci sont issus d'une telle désintégration.

 

La formule de la masse invariante est simplement : 2E1E2(1-cos theta) où E1 et E2 sont les énergies des deux photons et theta l'angle qui les sépare dans le détecteur.

 

Si les photons proviennent de processus indépendants on obtient une courbe lisse (bruit de fond combinatoire), si certains des photons proviennent de la désintégration d'une particule massive, on observe alors un pic qui se superpose au bruit de fond combinatoire. La position du pic correspond à la masse de la particule qui s'est désintégrée.

 

Quand on fait cela, il faut faire en sorte de maximiser le signal et de réduire le bruit de fond et pour cela on applique des coupures. Par exemple on va vouloir que les deux photons aient une énergie plus grande qu'un certain seuil, ou bien on va demander à ce qu'ils ne soient pas dans une zone où le détecteur est moins précis, ou encore on va imposer qu'il soit relativement isolés par rapport aux autres particules... Ce que je décris ici sont des coupures simples, mais en fonction de ce que l'on cherche on peut être amené à définir des coupures beaucoup plus sophistiquées.

 

Tout l'art consiste à comprendre exactement ce que l'on fait pour ne pas introduire de biais qui pourrait masquer un signal intéressant ou faire apparaître un signal inexistant.

 

Dominique

  • Réponses 488
  • Créé
  • Dernière réponse

Les pipelettes du sujet

Les pipelettes du sujet

Posté

Merci Dominique, tout ceci est très clair.

Tout l'art consiste à comprendre exactement ce que l'on fait ...

 

Encore une question s'il te plaît.

Je reprends ton exemple. Sur quelles bases applique-t-on des coupures sur telles niveaux d'énergie, qu'on va ainsi éliminer, et pas d'autres. Sont-ce les travaux théoriques qui déterminent que certains niveaux sont à éliminer car ils ne permettent pas de trouver ce que l'on cherche.

Posté
Merci Dominique, tout ceci est très clair.

 

 

Encore une question s'il te plaît.

Je reprends ton exemple. Sur quelles bases applique-t-on des coupures sur telles niveaux d'énergie, qu'on va ainsi éliminer, et pas d'autres. Sont-ce les travaux théoriques qui déterminent que certains niveaux sont à éliminer car ils ne permettent pas de trouver ce que l'on cherche.

 

C'est très variable... Certaines coupures sont liées à des contraintes expérimentales; les détecteurs ont une certaines résolutions en énergie/impulsion ou en position, par exemple, si deux particules sont trop proches spatialement, leur signal peut se mélanger et la mesure risque d'être faussée, on peut alors préféré éliminer complètement ces particules trop proches.

 

Dans d'autres cas, les coupures vont être dictées par la théorie, par exemple si on fait une hypothèse sur la production d'un certain type de particule, en fonction du spin de celle-ci, les distributions angulaires des produits de désintégration ne vont pas être les même, il peut alors être intéressant d'adapter les coupures pour maximiser le rapport signal sur bruit.

 

Sur les machines hadroniques comme le LHC (collisions proton-proton), il y a énormément de bruit de fond dans des directions proches de l'axe du faisceau, la physique intéressante se passe à grand angle et à grande énergie, on va donc couper tout ce qui a une impulsion transverse faible.

 

Dominique

  • 3 semaines plus tard...
Posté

Bonjour,

 

Bonjour !

 

Bon, je n'ai rien vu ici à ce sujet, alors je relaye cette info. A la fois comique et agaçant... (ils perdent encore du temps dans une période cruciale pour la physique !)

 

http://www.sciencesetavenir.fr/fondamental/quantique/20160502.OBS9618/une-fouine-bloque-le-lhc.html

 

Oh, c'est déjà de l'histoire ancienne et le problème est réglé. Le LHC et ses détecteurs ont redémarré et commencent à accumuler de la statistique.

 

Voici le dernier communiqué de presse du CERN: http://press.cern/fr/press-releases/2016/05/debut-de-la-saison-2016-de-physique-au-lhc

 

Dominique

Posté

Tiens ils n'en parlent pas, en effet :D

Ca date d'à peine plus d'une semaine pourtant, bien que les dates fournies dans le lien que j'ai donné plus haut ne soient pas bien claires.

Posté

On ne peut que s'insurger contre les expériences faites sur les animaux au LHC... pauvre fouine... Boycottons les bosons !

Posté

Ils en avaient parlé sur France Inter (la tête au carré du vendredi) et ils râlaient un peu car ça risquait de retarder l'accumulation de résultats pour confirmer la nouvelle particule inattendue. Ils disaient que, par ailleurs, la machine est super bien réglée et opérationnelle à des niveaux d'énergie qui semblent le max qu'on puisse en tirer.

Posté
Pas très au point leur système de sécurité dis-donc ;) !

Avoir un réseau très haute tension IP2X (Indice de Protection avec impossibilité de passer un doigt en gros) ben c'est pas demain la veille ;) .

Chez nous un gros iguane a laissé traîner sa queue sur le 90 kV du poste d'évacuation du barrage de petit saut, résultat : l'iguane à explosé mais surtout black out de qq heures (le coup d'un animal à cet endroit arrive en gros une fois tous les 25 ans), alors sous terre, c'est juste pas de bol... :p

Posté (modifié)
Avoir un réseau très haute tension IP2X (Indice de Protection avec impossibilité de passer un doigt en gros) ben c'est pas demain la veille ;) .

Chez nous un gros iguane a laissé traîner sa queue sur le 90 kV du poste d'évacuation du barrage de petit saut, résultat : l'iguane à explosé mais surtout black out de qq heures (le coup d'un animal à cet endroit arrive en gros une fois tous les 25 ans), alors sous terre, c'est juste pas de bol... :p

 

Le poste 66 kV est en surface, derrière un grillage mais pas de quoi arrêter une fouine !

Si vous voulez voir des photos, il y en a ici : https://indico.cern.ch/event/506408/contributions/2026411/attachments/1266510/1875029/Event_29.04.2016_rev_1.0.pdf

et ici (slide 7) : https://indico.cern.ch/event/506408/contributions/2026411/attachments/1266510/1875023/LHC_02052016.pdf

 

Il y a toutes sortes de problèmes de ce genre qui peuvent arriver sur une machine aussi complexe, c'est impossible de se protéger contre tout.

Mais ça a été réparé en quelques jours et en ce moment le LHC fonctionne très bien.

 

Dominique

Modifié par Dom de Savoie
Posté

Tu m'as fait perdre pas mal de temps avec tes liens, Dom. En fait c'est nul : Moi je veux une photo de ce qui reste de la fouine ! :be::be::be:

 

Mais sans blague, sympa tous ces détails techniques. C'est impressionnant...

  • 2 semaines plus tard...
Posté
"vite" Comment :?:

 

En tout cas merci pour tes nombreuses infos en live, Dom !! :)

 

Il y a la conférence ICHEP à Chicago début août, il y aura certainement une présentation des résultats mis à jour avec les nouvelles données. Donc, si les expériences accumulent suffisamment de statistique d'ici là, on pourrait peut-être avoir le fin mot de l'histoire.

 

Dominique

Posté
J'ai déjà vu cette page est-ce que cela représente bien l'intensité de chaque faisceau et sa luminosité en temps réel ? Si oui, il fonctionne donc à 13 Tev au maximum de ses possibilités ?

 

Oui c'est bien cela. Cette page montre le fonctionnement du collisionneur en temps réel. Celui fonctionne à 13 TeV d'énergie dans le centre de masse. Au départ le LHC avait été conçu pour 14 TeV mais suite à l'accident de 2008 cette énergie a d'abord été limitée à 7 TeV puis maintenant à 13 TeV. A priori cela restera comme cela.

 

Une autre page intéressante : https://acc-stats.web.cern.ch/acc-stats/#lhc/ celle-ci résume les performances de la machine depuis le début de la période de prise de données. On note en particulier la luminosité intégrée pour chacune des expériences c'est une quantité qui est directement reliée au nombres de collisions enregistrées. Pour comparaison; en 2015 ATLAS et CMS avaient chacune collecté environ 4 fb⁻¹ et là elles en sont déjà à 1.7 fb⁻¹. Le graphe du bas montre l'évolution de la luminosité instantanée en fonction du temps et on voit que ça monte bien régulièrement. Bref, tout va pour le mieux !

 

Dominique

Posté
Au départ le LHC avait été conçu pour 14 TeV mais suite à l'accident de 2008 cette énergie a d'abord été limitée à 7 TeV puis maintenant à 13 TeV. A priori cela restera comme cela.

 

 

Si effectivement un très gros poisson est découvert dans les données, sera t-il possible d'augmenter encore la puissance au delà de 13 TeV pour essayer de le caractériser ou envisage t-on de construire une nouvelle machine ? (il y a déjà des projets en discussion je crois)

Posté
Si effectivement un très gros poisson est découvert dans les données, sera t-il possible d'augmenter encore la puissance au delà de 13 TeV

Ce n'est pas ce qui avait été fait au Tévatron du Fermilab qui avait ainsi été monté jusqu'à 1,8 Tev= 2x900Gev (en 1986)

Posté
Si effectivement un très gros poisson est découvert dans les données, sera t-il possible d'augmenter encore la puissance au delà de 13 TeV pour essayer de le caractériser ou envisage t-on de construire une nouvelle machine ? (il y a déjà des projets en discussion je crois)

 

Difficile sans faire de grosses modifications. Mais monter l'énergie n'est pas forcément le plus intéressant. Le prochain upgrade de la machine sera plutôt pour monter la luminosité c'est à dire le nombre de collisions utilisables pour la physique (c'est lié à l'intensité des faisceau, mais pas que).

 

Après, s'il y a vraiment quelque chose à 750 GeV, c'est de inattendu complet, il faudra donc comprendre ce que c'est et on peut imaginer que cela pointe vers des phénomènes pour lesquels il serait intéressant de disposer d'une machine à très haute énergie.

 

Dominique

  • 4 semaines plus tard...
Posté

Des niouses sur cette fameuse particule à 750GeV?

 

PS : au passage si quelqu'un à des sources qui permettent à un nioub de la physique de comprendre dans un détail relatif. J'ai lu le dossier de Science & Vie qui parlait des conséquences de cette possible découverte sur le modèle standard mais j'aimerai bien essayer de creuser :)

Posté

J'ai deux réactions :

Ouf, les théories restent valables.

Merde, on ne va pas pouvoir remettre en cause les théories.

Posté
:(

 

On est bien parti pour le flop de l'année !!

 

Patience, patience,... on en saura plus dans un peu plus d'un mois. En attendant il faut laisser le temps à la statistique de faire son boulot :p

Le point positif est que le LHC marche super bien et les données s'accumulent.

 

Dominique

Posté

Si je comprends bien, on avait un excès d'événement jusqu'à l'année dernière. Et depuis, la statistique s'est un peu inversée, mais bon... peut-être est-ce juste un effet de fluctuation de statistique.

Posté
Si je comprends bien, on avait un excès d'événement jusqu'à l'année dernière. Et depuis, la statistique s'est un peu inversée, mais bon... peut-être est-ce juste un effet de fluctuation de statistique.

 

C'est ça et c'est pour cela qu'il ne faut jamais s'emballer sur un bout de signal tant que celui-ci n'a pas passé la barre des 5 écarts standards de signification statistique. Il peut y avoir des fluctuations positives ou négatives, surtout quand on regarde des milliers de distributions différentes, la probabilité que l'une d'entre elle montre une anomalie à un moment donné est très grande.

 

Tant qu'on n'a pas 5 sigma, ça n'existe pas ! Et toute discussion n'est que spéculation. Ceci n'empêche pas d'être intrigué et d'en parler, bien entendu.

 

Dominique

Rejoignez la conversation !

Vous pouvez répondre maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous pour poster avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.

×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.