Estadística en física de partícules

El seu paper en el descobriment del bosó de Higgs

doi: 10.7203/metode.83.4081

atlas lhc cern estadística bosó higgs

L’estadística ha representat un paper d’enorme importància en el desenvolupament de la física de partícules, pionera de l’anomenada «gran ciència». La seua aplicació ha evolucionat al compàs dels progressos tecnològics, que han permès passar de registrar uns pocs centenars de «successos» a registrar-ne milers de milions. Aquest article discuteix sobre com s’ha resolt el problema de la manipulació d’aquestes quantitats massives de dades i com s’han utilitzat les principals eines estadístiques des dels anys 1990 per a cercar senyals cada vegada més petits ocults entre un soroll de fons cada vegada major. Molts experiments en la història de la física de partícules podrien il·lustrar el paper que ha exercit l’estadística, però pocs ho poden fer amb un descobriment, fruit d’un esforç tecnològic i col·lectiu colossals, de tanta repercussió científica com el del bosó de Higgs.

Paraules clau: estadística, Monte Carlo, p-valor, física de partícules, bosó de Higgs.

«El principi de la ciència, la definició, quasi, és la següent: la prova de tot coneixement és l’experiment. L’experiment és l’únic jutge de la “veritat” científica. Però, quin és l’origen del coneixement? D’on provenen les lleis que han de ser comprovades? L’experiment, per si mateix, ajuda a generar aquestes lleis, en el sentit que ens dóna pistes. Però també cal imaginació per a crear a partir d’aquestes evidències les grans generalitzacions […], i en acabat tornar-hi a l’experiment per a comprovar novament si hem fet la suposició correcta.» (Feynman, 1963). D’aquesta manera el gran físic Richard Feynman resumia el paper de l’experimentació en el mètode científic. Avui dia, immersos en l’era de la generació i manipulació de quantitats massives de dades, el que es coneix com dades massives, l’estadística és una eina fonamental per a fer ciència. En genòmica, canvi climàtic o física de partícules, els descobriments sorgeixen només quan les dades són vistes a través del rigorós prisma de l’estadística, atès que el senyal buscat, si existeix, es troba ocult entre un soroll de fons gegantí.

«En l’era de la generació i manipulació de quantitats massives de dades, l’estadística és una eina fonamental per a fer ciència»

La física de partícules sorgeix com a disciplina pròpia cap als anys 1950 i va ser pionera de la «gran ciència», atès que requereix experiments amb grans detectors i acceleradors de partícules, i infraestructures de dades massives, desenvolupats per grans col·laboracions. En aquest entorn l’estadística ha representat un paper d’enorme importància, encara que s’ha fet sense uns forts vincles amb la comunitat estadística, una situació que en els últims anys ha millorat considerablement (Physics Statistics Code Repository, 2002, 2003, 2005, 2007, 2011).

El seu camp d’estudi són les «partícules elementals» que s’han anat descobrint i que, junt amb les forces que sorgeixen entre elles, configuren el que coneixem com a model estàndard: 6 quarks (u, d, s, c, b, t); 6 leptons (electró, muó, tau i els seus neutrins associats); els bosons intermediaris de les interaccions fonamentals (el fotó per a la interacció electromagnètica, dos W i el Z per a la dèbil, i els 8 gluons de la forta; la gravitatòria, molt menys intensa, encara no ha estat inclosa satisfactòriament); i els dos centenars d’hadrons constituïts per dos quarks (anomenats mesons), tres (barions), i fins i tot quatre (tetraquarks, les evidències del quals van sent cada vegada més convincents; Swanson, 2013; Aaij et al., 2014). A aquesta llista cal afegir les seues corresponents parelles d’antimatèria: antiquarks, antileptons i antihadrons. I per descomptat, el flamant bosó de Higgs, manifestació del camp d’Englert-Brout-Higgs que inunda el buit i és responsable de dotar de massa totes elles (excepte el fotó i els gluons, que no en tenen), descobert el 2012 després d’haver estat postulat uns cinquanta anys abans (Schirber, 2013). A tot açò cal afegir el que encara no s’ha descobert, com ara partícules supersimètriques, matèria fosca, etc. La llista només està limitada per la imaginació dels teòrics que les proposen. No obstant això, encara que es desconega la naturalesa d’aquesta «nova física», hi ha poderoses raons que fan pensar en la seua existència real, per això la cerca continua (Ellis, 2012).

Les preguntes que cal respondre per a cada tipus de partícula són molt variades: Existeix? Si existeix, quines són les seues propietats (massa, espín, càrrega elèctrica, vida mitjana, etc.)? Si no és estable, quines partícules produeix quan es desintegra? Quines són les probabilitats dels diferents modes de desintegració? Com són les distribucions d’energies i direccions de les partícules de l’estat final? Estan d’acord amb els models teòrics? Quins processos ocorren i amb quines seccions eficaces (probabilitats) quan col·lideix amb una altra partícula? Es comporta de la mateixa manera la seua antipartícula?

Per a estudiar un cert fenomen es requereix, en primer lloc, produir-lo. Per a fer-ho solen usar-se feixos de partícules procedents d’un accelerador o un altre origen, com ara fonts radioactives o raigs còsmics, bombardejant un blanc fix o enfrontant-se entre ells. El tipus i energia de les partícules que col·lideixen es trien per a maximitzar la producció del fenomen en qüestió. En la «frontera d’energia» els acceleradors permeten accelerar les partícules a majors energies a fi de produir noves partícules, mentre que en la «frontera de lluminositat» la seua alta intensitat permet descobrir processos considerats prohibits o molt rars que poden tenir implicacions fonamentals.

Considerem el cas del Gran Col·lisionador d’Hadrons (LHC) del CERN a Ginebra, que després d’uns vint anys de disseny i construcció va començar a fun­cio­nar l’any 2009. En aquest accelerador es fan col·lidir protons a una energia de fins a 7 TeV per protó (1 TeV = 1 bilió d’electronvolts, eV). En termes quotidians, 1 TeV és semblant a l’energia cinètica d’un mosquit. El que fa que aquesta energia siga tan elevada és que es troba concentrada en una regió de la grandària d’una bilionèsima part d’una partícula de pols. Per a registrar el que ocorre després de la col·lisió s’han construït grans detectors (ATLAS i CMS per a estudis de frontera d’energia, LHCb i ALICE per a frontera de lluminositat, i altres detectors més petits) constituïts per un ampli ventall de sensors amb milions de canals electrònics de lectura.

Dades massives

«En L’LHC, uns sistemes electrònics ultraràpids decideixen en temps real si la col·lisió és interessant i, en aquest cas, es registra en discos durs per a reconstruir-la i analitzar-la posteriorment»

En els experiments de l’LHC els feixos col·lideixen 20 milions de vegades per segon. Cadascuna d’aquestes col·lisions produeix una petita explosió en què part de l’energia cinètica dels protons es converteix en altres partícules. La majoria són molt inestables i es desintegren produint una cascada d’entre centenars i milers de partícules més lleugeres i estables, que són les que s’observen directament en els detectors. Utilitzant unes poques característiques d’aquestes restes, uns sistemes electrònics ultraràpids anomenats triggers decideixen en temps real si la col·lisió és interessant i, en aquest cas, es registra en discos durs per a reconstruir-la i analitzar-la posteriorment. Aquests sistemes d’adquisició de dades (figura 1) redueixen a uns centenars per segon les col·lisions que produeixen física d’interès, la qual cosa genera aproximadament 1 petabyte (mil milions de megabytes) de dades «crues» l’any per experiment.

Figura 2. Diagrama de la distribució dels centres de càlcul dels experiments de l’LHC (Tiers). Els Tier-1, repartits per Àsia, Europa i Amèrica del Nord, estan connectats per mitjà de connexions específiques de fins a 10 gigabits per segon al Tier-0 del CERN, mentre que els Tier-1 i Tier-2 estan interconnectats a través de les xarxes pròpies d’investigació dels diferents països. Al seu torn, tots els Tier estan connectats a la xarxa general d’Internet. Així qualsevol ­Tier-2 pot accedir a totes les dades. Aquesta infraestructura d’emmagatzematge de dades i de càlcul massius es denomina Worldwide LHC Computing Grid (WLCG). El Tier-0 i els Tier-1 es dediquen al (re)processament de les dades reals, així com a l’emmagatzematge permanent, tant de dades reals com de simulades. Les dades crues només s’emmagatzemen en el Tier-0. Per la seua banda, els Tier-2 es dediquen a l’emmagatzematge parcial i temporal de dades, produccions de Monte Carlo, i processament de les etapes finals d’anàlisi de les dades.

En la fase de reconstrucció, els senyals electrònics que constitueixen les dades crues es combinen i interpreten: els impactes que deixen les partícules al seu pas pels sensors formen les traces de les seues trajectòries, es busquen interseccions entre aquestes per a identificar la posició de la col·lisió i els punts de des­integració de les partícules inestables, la curvatura de les trajectòries en el si d’un camp magnètic determina el moment, els calorímetres mesuren l’energia de les partícules, etc. D’aquest procés de reconeixement de patrons emergeix el «succés» o «esdevenimet» reconstruït com una llista de partícules produïdes amb les seues magnituds cinemàtiques mesurades (energia, moment, posició i direcció) i en molts casos la seua identitat. En els experiments de l’LHC s’ha desenvolupat una infraestructura d’emmagatzematge i càlcul massius denominada WLCG (Worldwide LHC Computing Grid) que permet distribuir la reconstrucció dels milers de mi­lions de successos produïts anualment entre centenars de milers de processadors repartits arreu del món (figura 2).

Conegut el patró del fenomen sota estudi, durant la fase d’anàlisi es realitza una classificació o selecció de successos (senyal enfront de soroll de fons) utilitzant tècniques de contrast d’hipòtesis. Amb el repte de discriminar senyals cada vegada menors, els últims anys han vist com s’han establert i han evolucionat els mètodes de classificació multivariada basats en tècniques d’aprenentatge (Webb, 2002). Això no hauria estat possible sense els importants avenços realitzats per la comunitat estadística a l’hora de combinar classificadors i millorar-ne les prestacions. Per als successos seleccionats s’avaluen, a partir de les variables cinemàtiques associades a les partícules detectades, les magnituds físiques rellevants, i a continuació es representen gràficament, usualment en forma de diagrama de freqüències (histograma).

Un exemple d’aquest procés de reducció de dades s’il·lustra en la figura 3, en la part superior de la qual es mostra l’histograma de la massa invariant dels parells de fotons que han superat el trigger, la reconstrucció i la classificació com a successos «candidats» a bosons de Higgs produïts i desintegrats en dos fotons. La magnitud física en aquest cas, la massa invariant, es calcula a partir de l’energia i direcció dels fotons mesurats amb els calorímetres. La reconstrucció completa de la col·lisió que dóna lloc a un d’aquests candidats s’il·lustra en la figura 4, en la qual s’identifiquen clarament els dos fotons sobre els centenars de trajectòries reconstruï­des d’altres partícules produïdes en la col·lisió. Si els dos fotons procedeixen efectivament de la producció i desintegració d’una nova partícula, l’histograma hauria de presentar un excés de successos localitzat sobre un continu de soroll de fons, com així sembla observar-se. És en la confrontació d’aquesta distribució amb la teoria quan sorgeixen les qüestions estadístiques d’interès: Hi ha cap evidència del bosó Higgs? Quin és el millor estimador de la seua massa, secció eficaç de producció i probabilitat de desintegració a l’estat final de dos fotons? Són aquests resultats compatibles amb la predicció del model estàndard?

Estadística i simulacions de Monte Carlo

Tot experiment en física de partícules es pot entendre com un experiment de comptatge de successos. Així, per a observar una partícula i mesurar-ne la massa es fa servir d’un histograma com el de la figura 3, en què el nombre de successos N en cada interval de massa invariant és aleatori i ve determinat per la distribució de Poisson, amb desviació estàndard √N (només en alguns casos particulars es fa necessari utilitzar en lloc seu estadística binomial, o gaussiana sense que es tracte del límit per a N gran). Aquesta aleatorietat, però, no és conseqüència d’un error de mostreig sinó que està relacionada amb la naturalesa quàntica dels processos.

Les distribucions predites per la teoria solen ser senzilles. Per exemple, les distribucions angulars poden ser uniformes o venir donades per funcions trigonomètriques, les masses solen seguir una distribució de Cauchy (que els físics de partícules anomenen de Breit-Wigner), les distribucions temporals poden ser exponencials o exponencials modulades per funcions trigonomètriques o hiperbòliques. Aquestes formes senzilles es veuen modificades sovint per efectes teòrics complexos, i sempre per la resolució, eficiència i sorolls de fons associats a la reconstrucció del successos.

Aquestes distribucions es generen utilitzant simulacions de Monte Carlo. En primer lloc les partícules es generen seguint les distribucions senzilles inicials, incloent-hi posteriorment les complicacions teòriques. Per fer-ho s’ha desenvolupat un elenc de generadors amb noms tan exòtics com Herwig, Pythia o Sherpa, que proporcionen una simulació completa de la dinàmica de les col·lisions (Nason i Skands, 2013). En segon lloc es corregeixen les distribucions teòriques per la resposta del detector, per la qual cosa és necessari codificar un model virtual precís de la seua geometria i composició en programes específics, el més sofisticat i estès dels quals és Geant (Agostinelli, 2003). D’aquesta manera, la simulació del detector dóna compte d’efectes com ara la interacció de les partícules amb els materials que aquestes travessen, la cobertura angular, les regions mortes, l’existència de canals electrònics defectuosos o les imprecisions en el posicionament dels dispositius.

«La informació simulada permet realitzar una predicció completa de les distribucions que segueixen les dades, la qual cosa resulta fonamental per a la planificació de nous experiments»

Un dels problemes fonamentals de la simulació en les seues diferents fases és mostrejar amb alta eficiència i màxima velocitat les funcions de densitat de probabilitat que defineixen les distribucions. Per a això s’usen generadors de nombres aleatoris uniformes de període llarg o extremadament llarg. Quan és possible calcular analíticament la inversa de la funció acumulativa, es mostreja la funció de probabilitat amb algoritmes específics. Aquest és el cas d’algunes funcions comunes com ara les exponencials, de Breit-Wigner o gaussianes. En cas contrari es fa servir el mètode més general però menys eficient de Von Neumann (acceptació i rebuig).

La informació simulada s’utilitza per a recons­truir les magnituds cinemàtiques amb els mateixos programes que s’usen per a les dades reals, la qual cosa permet realitzar una predicció completa de les distribucions que segueixen les dades. Per la seua complexitat i lentitud d’execució, els programes de simulació absorbeixen recursos de càlcul i emmagatzematge de la infraestructura WLCG semblants o fins i tot majors que els de les dades reals (figura 2). Les dades simulades, a més, resulten fonamentals per a planificar nous experiments.

Figura 4. Un succés candidat a bosó de Higgs, desintegrant-se en dos fotons. Les energies d’aquests fotons, depositades en els calorímetres del detector, apareixen representades per les «torres» roges. Les línies rectes discontínues grogues il·lustren les direccions dels fotons, definides pel punt de col·lisió i les torres. Les línies contínues grogues representen les trajectòries reconstruïdes dels centenars d’altres partícules produïdes en la col·lisió. La curvatura d’aquestes trajectòries permet mesurar el moment de les partícules que les han produïdes, i és deguda a la presència d’un camp magnètic molt intens. / CM Experiment © 2014 CERN

Estimació de paràmetres físics i intervals de confiança

El coneixement de les distribucions teòriques, excepte uns pocs paràmetres desconeguts, corregides pel procés de mesura, implica que la funció de versemblança és coneguda i per tant és possible obtenir-ne els estimadors de màxima versemblança (Barlow, 1989; Cowan, 2013). Exemples d’estimadors que poden construir-se a partir de la distribució de la figura 3 són la massa de la partícula i la intensitat del senyal, aquest últim relacio­nat amb el producte de la secció eficaç de producció i de la probabilitat de desintegració a dos fotons. Les corresponents regions de confiança per a un nivell de confiança donat s’obtenen a partir de la variació de la versemblança respecte del seu valor màxim. En comptades ocasions la solució és algebraica, fent-se necessàries tècniques numèriques que, en el cas de problemes complexos amb un gran volum de dades, requereixen importants recursos computacionals. Una alternativa més econòmica utilitzada tradicionalment és el mètode de mínims quadrats, en el qual es minimitza un test estadístic de tipus χ2. El seu principal desavantatge consisteix a assumir que les dades segueixen una probabilitat gaussiana com a aproximació a la distribució de Poisson, per la qual cosa en general no es tracta d’un estimador de màxima versemblança, asimptòticament eficient i sense biaix. El mètode de màxima versemblança binat resol aquesta qüestió usant una versemblança de Poisson en cada interval en lloc del χ2. En aquest cas l’eficiència de l’estimador només es redueix si l’amplària dels intervals és major que l’estructura de les dades. L’increment de la capacitat dels processadors i l’avanç en protocols de paral·lelització dels últims anys ha permès implantar el mètode de màxima versemblança complet.

Durant l’última dècada també s’ha generalitzat l’ús de la tècnica de Toy Monte Carlo, també anomenada de «falsos experiments», per a l’obtenció de regions de confiança amb la construcció de Neyman (Cowan, 2013). A partir de la funció de versemblança es generen dades (falsos experiments) per a uns valors particulars dels paràmetres. Cada un d’aquests experiments s’ajusta per trobar-ne l’estimador de màxima versemblança. Comptant el nombre d’experiments amb versemblança menor o major que l’experimental, i explorant l’espai de paràmetres, es troba la regió de confiança amb el desitjat nivell de confiança. Aquesta tècnica és fonamental quan les dades no són correctament descrites per distribucions gaussianes, o la versemblança pateix distorsions respecte del seu esperat comportament asimptòtic o presenta màxims locals pròxims al màxim global. També és comú aplicar-la per a certificar el contingut de probabilitat de regions de confiança construïdes amb l’aproximació gaussiana.

Significació estadística i descobriment

La probabilitat que el resultat d’un experiment siga consistent amb una fluctuació aleatòria de les dades sent certa una determinada hipòtesi (referida com a hipòtesi nul·la) es coneix com a significació estadística o p-valor (Barlow, 1989; Cowan, 2013): com menor siga major és la versemblança que la hipòtesi siga falsa. Per a calcular p, generalment amb la tècnica de Toy Monte Carlo, és necessari definir un test estadístic dependent de les dades que reflectesca d’alguna manera el grau de discrepància entre les dades i la hipòtesi nul·la. Una implementació tipus és el quocient de versemblances entre el millor ajust de les dades i l’ajust amb la hipòtesi nul·la. És habitual convertir el p-valor en una significació equivalent Zσ, utilitzant per a això la distribució acumulativa de la distribució de Gauss normalitzada. Des dels anys 1990 els experiments en física de partícules utilitzen un criteri mínim de 5σ, corresponent a un p-valor de 2,87 × 10-7, per a excloure con­clu­sivament una hipòtesi nul·la. Només en aquest cas es parla d’«observació» o «descobriment». El criteri és d’unes 3σ, amb un ­p-valor d’1,35 × 10-3, per a «evidèn­cia».

«Hi ha el risc que l’experimentador monitoritze l’experiment amb les mateixes dades amb què realitza l’observació, introduint canvis fins a obtenir l’acord desitjat»

Aquestes exigències resulten fonamentals quan les mesures estan subjectes a incerteses sistemàtiques. Així, en les primeres dècades de la física de partícules els experiments registraven, en el millor dels casos, centenars de successos, amb la qual cosa les incerteses estadístiques eren tan elevades que les sistemàtiques resultaven menyspreables. En els anys 1970 i 1980 van sorgir els detectors electrònics i les incerteses estadístiques van disminuir. Encara així, grans descobriments de l’època, com el del quark b (Herb et al., 1977), amb un senyal observat d’uns 770 candidats sobre un nombre esperat de successos amb la hipòtesi nul·la (soroll de fons) de 350, o el del bosó W per l’experiment UA1 (Arnison et al., 1983), amb 6 successos observats sobre un soroll estimat menyspreable, no van avaluar el nivell de significació de les troballes. En l’actualitat es realitzen anàlisis detallades d’aquest tipus d’incerteses, el control de les quals requereix, per exemple, calibrar milions de canals de lectura del detector i afinar minuciosament les dades simulades. Una tasca que en la pràctica és complexa i que es propaga, en general, induint incerteses sistemàtiques no menyspreables.

Figura 3. En la part superior es mostra la distribució, en forma d’histograma (punts), de la massa invariant dels successos candidats a bosons de Higgs produïts i desintegrats en dos fotons (Aad et al., 2012). Aquesta distribució s’ha ajustat pel mètode de màxima versemblança a un model (línia contínua roja) donat per la suma d’una funció de senyal per a una massa del bosó de 126,5 GeV (línia contínua negra) i una funció de soroll de fons (línia discontínua blava). En la part inferior es mostra la distribució de les dades (punts) i del model ajustat (línia) després d’haver-ne sostret la contribució del fons. La suma quadràtica per a tots els intervals de la distància de cada punt a la corba, normalitzada a la corresponent incertesa, defineix un test estadístic χ2 amb el qual es jutja si s’han descrit correctament les dades obtingudes pel model. / Font: ATLAS Experiment © 2014 CERN.

La definició de la significació estadística en termes d’un p-valor fa patent la importància de la decisió a prio­ri en l’elecció del test estadístic, donada la dependència d’aquestes de les pròpies dades amb què es pretén realitzar l’observació. Aquesta llibertat d’elecció pot donar lloc al que s’ha denominat phacking (Nuzzo, 2014). El risc de phacking és que l’experimentador, fins i tot inconscientment, monitoritza l’experiment amb les mateixes dades amb què realitza l’observació, introduint canvis en els criteris de selecció i en les correccions de les distribucions fins que obté l’acord desitjat, i no fins que considera que totes les modificacions necessàries s’han tingut en compte. Aquesta manera de procedir pot induir caires tant en l’estimació dels paràmetres com en el propi p-valor. Encara que la física de partícules ha estat sempre acurada, i la prova n’és l’hàbit quasi obsessiu d’explicar els detalls de la selecció de les dades, no ha deixat de veure’s afectada per aquest problema. Per a eliminar-lo és freqüent utilitzar la tècnica de «blindatge», en la qual es defineixen els criteris de selecció de les dades, les correccions de les distribucions i el test estadístic sense tenir coneixement de les dades, fent ús de dades simulades o mostres de dades reals en què no s’espera cap senyal, o introduint un caire desconegut en els paràmetres físics que cal mesurar.

Amb tot, el valor p només s’utilitza per a determinar el grau d’incompatibilitat entre les dades i la hipòtesi nul·la, evitant-ne l’ús abusiu com a eina d’inferència sobre la naturalesa real de l’efecte. A més, el grau de convenciment de l’observació basant-se en el valor p també depèn d’altres factors com ara la confiança en el model que ha donat lloc a aquest i l’existència de múltiples hipòtesis nul·les amb p-valors semblants. Per això cal afrontar el problema de la manca d’informació en el mètode de màxima versemblança que permeta jutjar la qualitat del model que millor descriu les dades. La solució habitualment adoptada és la de determinar el p-valor per a un test estadístic χ2. Un test alternatiu ocasionalment utilitzat és el de Kolmogorov-Smirnov (Barlow, 1998).

El bosó de Higgs

Som ara en situació d’intentar respondre a les qüestions estadístiques formulades (Aad et al., 2012; Chatrchyan et al., 2012). Per a això, les dades que donen lloc a l’histograma de la figura 3 s’ajusten pel mètode de màxima versemblança complet a un model constituït per la suma d’una funció paramètrica de senyal fix per a diferents masses del bosó i una altra de soroll de fons. La descripció de la forma del senyal s’ha obtingut a partir de simulacions de Monte Carlo completes, mentre que la del fons s’ha efectuat usant les dades a un costat i a l’altre de la regió on s’observa l’excés. Explorant per a diferents masses del bosó s’ajusta la constant de normalització del senyal. Sostraient de la distribució de les dades i del model ajustat la contribució del fons s’obté la part inferior de la figura. Les diferències entre els punts i la corba defineixen el test estadístic χ2 amb què es jutja si és correcta la descripció de les dades obtinguda pel model. La tècnica de blindatge en aquest cas ha consistit a ocultar la distribució de massa entre 110 i 140 GeV fins a concloure la fase de selecció de les dades i optimització de l’anàlisi.

«Encara que el model estàndard no prediu la massa del bosó de Higgs, sí que prediu el producte de la seua secció eficaç de producció i la probabilitat que es desintegre en un cert estat final. Aquesta predicció resulta fonamental»

Tot seguit es determina la significació estadística de l’excés de successos en la regió pròxima al millor valor de l’estimador de la massa de la partícula. Per a fer-ho es calcula el p-valor amb un test estadístic construït a partir del quocient de versemblances entre l’ajust de la distribució de massa amb la component de senyal i sense. Explorant per a distints valors de la massa i combinant amb altres estats finals de desintegració analitzats no discutits ací (dos i quatre leptons, siguen electrons o muons) s’obté la corba contínua de la figura 5. El menor p-valor, corresponent a una significació estadística de 5,9σ, ocorre per a una massa de 126,5 GeV, unes 130 vegades major que la massa de l’àtom d’hidrogen. El corresponent valor considerant només l’estat final a dos fotons és 4,5σ. Aquests resultats, juntament amb la descripció correcta de les dades obtinguda pel model amb senyal, permeten refutar la hipòtesi nul·la i obtenir evidència convincent del descobriment de la producció i desintegració d’una partícula en dos fotons. Que la partícula siga un bosó (partícula amb un valor sencer de l’espín) s’infereix directament de la seua desintegració en dos fotons (al seu torn bosons amb espín 1).

Figura 5. La corba contínua (Obs.) representa el p-valor «observat» de la hipòtesi nul·la (absència de senyal) obtingut a partir de la variació de la versemblança de l’ajust de la distribució de massa invariant dels successos candidats a bosons de Higgs produïts i desintegrats en dos fotons (figura 3), dos leptons i quatre leptons, amb la component de senyal i sense, en funció de la massa dels candidats (Aad et al., 2012). La corba discontínua (Exp.) indica el p-valor «esperat» segons les prediccions del model estàndard, mentre que la banda en blau correspon a la seua incertesa a 1s. En la regió al voltant el mínim del p-valor observat s’aprecia que aquest (corba mínima) és inferior al valor central del corresponent p-valor (corba discontínua), tot i que compatible amb l’interval de confiança a 1s (banda). Atès que el p-valor és menor quant major és la intensitat de la senyal, es conclou que les dades no exclouen que la senyal siga causada pel bosó de Higgs del model estàndard. Les línies horitzontals representen els p-valors corresponents a nivells de significació estadística d’1 a 6s. Els punts sobre la línia contínua són els valors específics de la massa del bosó utilitzats per a la simulació del senyal amb què s’ha obtingut la corba per interpolació. / Font: ATLAS Experiment © 2014 CERN.

Una altra qüestió és establir la naturalesa real de l’observació, començant per si estem o no davant del bosó de Higgs del model estàndard. Encara que el model estàndard no prediu la seua massa, sí que prediu, en funció d’aquesta, el producte de la seua secció eficaç de producció i la probabilitat que es desintegre en un cert estat final. Aquesta predicció resulta fonamental, ja que, amb l’ajuda de les simulacions de Monte Carlo, permet establir el senyal que s’espera amb la seua incertesa i els corresponents p-valors en termes de la massa, com es mostra en la corba discontínua i la banda blava de la figura 5. La comparació entre la corba contínua i la banda indica que la intensitat del senyal observat és compatible amb l’esperada a 1σ (p-valor de 0,317 o, equivalentment, un contingut de probabilitat del 68,3%) i per tant no s’exclou que es tracte del bosó de Higgs del model estàndard. Amb el quocient entre les dues intensitats es construeix un nou test estadístic que, en explorar-se en funció de la massa, permet obtenir el millor estimador de la massa de la nova partícula i el seu interval de confiança a 1σ, 126,0 ± 0,4 ± 0,4 GeV, on el segon (tercer) valor denota la incertesa estadística (sistemàtica). Estudis semblants realitzats analitzant la distribució angular dels fotons i leptons, magnitud física sensible a l’espín i la paritat (una altra propietat quàntica que pren valors + i –) del bosó, han permès excloure amb p-valors menors de 0,022 assignacions de l’espín-paritat 0–, 1+, 1–, 2+ enfront de l’assignació 0+ predita pel model estàndard (Aad et al., 2013; Chatrchyan et al. 2013).

Amb tota aquesta informació no podem concloure sense risc d’abusar de la ciència estadística que es tracta del bosó de Higgs del model estàndard, però certament s’hi assembla molt.

Agraïments:

L’autor agraeix als professors Santiago González de la Hoz i Jesús Navarro Faus, així com als revisors anònims, els seus comentaris i aportacions a aquest manuscrit.


Referències

Aad, G. et al., 2012. «Observation of a New Particle in the Search for the Standard Model Higgs Boson with the ATLAS Detector at the LHC». Physics Letters B, 716(1): 1-29. DOI: <10.1016/j.physletb.2012.08.020>.

Aad, G. et al., 2013. «Evidence for the Spin-0 Nature of the Higgs Boson Using ATLAS Data». Physics Letters B, 726(1-3): 120-144. DOI: <10.1016/j.physletb.2013.08.026>.

Aaij, R. et al., 2014. «Observation of the Resonant Character of the Z(4430) State». Physical Review Letters, 112: 222002. DOI: <10.1103/PhysRevLett.112.222002>.

Agostinelli, S. et al., 2003. «Geant4-a Simulation Toolkit». Nuclear Instruments and Methods in Physics Research A, 506(3): 250-303. DOI: <10.1016/S0168-9002(03)01368-8>.

Arnison, G. et al., 1983. «Experimental Observation of Isolated Large Transverse Energy Electrons with Associated Missing Energy at √s=450 GeV». Physics Letters B, 122(1): 103-116. DOI: <10.1016/0370-2693(83)91177-2>.

Barlow, R. J., 1989. Statistics. A Guide to the Use of Statistical Methods in the Physical Sciences. John Wiley & Sons. Chichester (Anglaterra).

Chatrchyan, S. et al., 2012. «Observation of a New Boson at a Mass of 125 GeV with the CMS Experiment at the LHC». Physics Letters B, 716(1): 30-61. DOI: <10.1016/j.physletb.2012.08.021>.

Chatrchyan, S. et al., 2013. «Study of the Mass and Spin-Parity of the Higgs Boson Candidate via Its Decays to Z Boson Pairs». Physical Review Letters, 110: 081803. DOI: <10.1103/PhysRevLett.110.081803>.

Cowan, G., 2013. «Statistics». En Olive, K. A. et al., 2014. «Review of Particle Physics». Chinese Physics C, 38(9): 090001. DOI: <10.1088/1674-1137/38/9/090001>.

Ellis, J., 2012. «Outstanding Questions: Physics Beyond the Standard Model». Philosophical Transactions of The Royal Society A, 370: 818-830. DOI: <10.1098/rsta.2011.0452>.

Feynman, R. P., 1963. The Feynman Lectures on Physics. Addison-Wesley. Reading, Massachusetts.

Herb, S. W. et al., 1977. «Observation of a Dimuon Resonance at 9.5 GeV in 400-GeV Proton-Nucleus Collisions». Physical Review Letters, 39: 252-255. DOI: <10.1103/PhysRevLett.39.252>.

Nason, P. i P. Z. Skands, 2013. «Monte Carlo Event Generators». En Olive, K.A. et al., 2014. «Review of Particle Physics». Chinese Physics C, 38(9): 090001. DOI: <10.1088/1674-1137/38/9/090001>.

Nuzzo, R., 2014. «Statistical Errors». Nature, 506: 150-152. DOI: <10.1038/506150a>.

Physics Statistics Code Repository, 2002; 2003; 2005; 2007; 2011. Congreso PHYSTAT 2002. Durham. Disponible en: <http://phystat.org>.

Schirber, M., 2013. «Focus: Nobel Prize-Why Particles Have Mass». Physics, 6: 111. DOI: <10.1103/Physics.6.111>.

Swanson, E., 2013. «Viewpoint: New Particle Hints at Four-Quark Matter». Physics, 6: 69. DOI: <10.1103/Physics.6.69>.

Webb, A., 2002. Statistical Pattern Recognition. John Wiley & Sons. Chichester (Anglaterra).

© Mètode 2014 - 83. Les xifres de la ciència - Tardor 2014
Professor titular de l’Institut de Física Corpus­cular (CSIC-UV). València.