(Which particle scares) the living daylights (out of quantum field model builders?)

Looking at the Higgs naturalness problem from a strictly scalar point of view
This post is a tentative explicitation of what I had in mind when I wrote the following question I asked in the comment section to the post After the Hangover on the blog Résonaance:
Is the Higgs naturalness problem not the tale of the electroweak scalar frog that wished to be as big as the cosmological constant bull ghost hunting the China shop of renormalizable quantum field theories at the daunting Planck scale?
The discovery of the Higgs boson (Aad 2012, Chatrchyan 2012) and nothing else exotic so far (Soni 2013) has put to rest questions of the existence of the Higgs boson, and rejuvenated questions about its viability without additional dynamics beyond the Standard Model. The Higgs boson is unique among the elementary particles in that its quantum corrections are quadratically sensitive to high scales [Giudice (2008)] . This leads to what many perceive to be a naturalness problem for the Higgs boson...

The naturalness argument, first articulated by Susskind (1979), suggests that if the Standard Model is a valid theory up to a very high scale, say Λ∼ MPl ∼1018 GeV, then m2 bare has to be a very large and extraordinarily fine-tuned number to cancel ... the very large contribution {to the Higgs boson mass from the top quark loop}... , thereby reproducing the small Higgs boson mass of 125 GeV. There is no equivalently disquieting equation in particle physics that apparently requires such dramatic fine-tuning of quantum corrections. Only the cosmological constant has perhaps more mystery of such large discrepancies compared to expectations... This problem sometimes also is called the “hierarchy problem”, in that there exists a large hierarchy of 1016 between the Planck mass and the weak scale, yet the quadratic divergences of the Higgs sector imply that the two scales should be similar.
The problem of naturalness as presented above is not without weakness. The core of the argument against naturalness being a serious problem is that there are no observables that cannot be accounted for in the theory. We always have infinities in quantum corrections that are formally cancelled by counter terms embedded in the bare parameter. Furthermore, if we regularize in dimensional regularization, artificially setting the number of dimensions to be n=4−ε, the infinities show up as 1/ε quantum corrections that are cancelled unceremoniously, in contrast to the seemingly dramatic cancellations of the Λ2 corrections that arise in a cutoff regularization method. There is no culture or meaning of declaring that counter-term cancellations with 1/ε corrections are outrageously fine-tuned. It is just a formal bookkeeping process to account for it, and all calculations can be matched to observables, and there is no conflict with the data. Naturalness, in this viewpoint, is unjustified hysteria generated by just one of our artificial means of keeping track of intermediate steps in a quantum field theory calculation. Other authors have addressed this viewpoint (Bardeen 1995, de Gouvêa et al. 2014, Farina et al. 2013).
The above discussion has focused on quantum corrections in the pure Standard Model theory. The naturalness concern rears its head more confidently if we assume that there is new physics with unknown dynamics at a high scale Λ that the Higgs boson couples to, which in turn generates quadratic sensitivities to Λ in the quantum corrections of the Higgs boson mass.
Sometimes it is argued that we know already there is a new scale, the scale of the onset of strong gravity and quantum gravity at 
, and the Higgs boson mass is surely affected by dynamics there. However, it is not a solid argument that the Higgs boson mass must suffer from destabilizing quadratic corrections due to gravity alone. Indeed, there is no obvious separate shift symmetry violating interaction of the Higgs boson with gravity that is not already suppressed by powers of the 1/
 coupling and the original Standard Model couplings. This only would leave corrections that are at most of order the Higgs mass. Furthermore, whatever non-perturbative concerns one might have for the Higgs boson inheriting instability up at the Planck scale due to gravity, it remains uncertain how to account for it. Quantum gravity is a notoriously unsolved mystery, and the naturalness issues of the cosmological problem being so small 1047 GeV4 compared to expectations 1072 GeV4 further highlights our ignorance. It is plausible that any high-scale quantum gravity intuition that we might try to invoke is dramatically wrong, and so it is reasonable to question any quantum gravity argument impugning Higgs naturalness. Since our aim is to test how robust naturalness arguments can be let us banish further thoughts about gravity and the damage it could do to the Higgs boson and the weak scale.
Another line of thinking is to consider the prospects of many new particles at higher scales that are charged under the Standard Model gauge symmetries. For example, the existence of heavy vector-like fermions charged under the Standard Model electroweak symmetries will induce large finite quantum corrections at the two loop level (Martin 1997), and it has been argued that any fermions of this kind that exist above 10 TeV destabilize the Higgs mass scale (Farina et al. 2013). This is a powerful argument in general against the Higgs boson, since there is nothing to prevent arbitrarily heavy and arbitrary number of vectorlike fermions. Their masses are gauge invariant without the need of additional spontaneous symmetry breaking, and the fermions do not contribute to gauge anomalies. Furthermore, in many string constructions there are a large number of vectorlike fermions that can arise in the spectrum.... However, assuming that the additional states have to be charged under the Standard Model for this worry to arise may seem too specialized to some. Perhaps the underlying theory gives the Standard Model gauge groups with pure chiral fermions (i.e., left and right fermions with different charges), whose mass is then necessarily bound to the Higgs boson vacuum expectation value. There are no known vectorlike fermions in nature, and invoking their existence, giving them Standard Model gauge charges, and assuming they exist at very massive scales is maybe too much speculation to convict the Higgs boson theory and the Standard Model.
At this point we have excluded gravity and additional states charged under the Standard Model from the discussion on Higgs boson naturalness. We must ask ourselves what else could create a problem for the stability of the Higgs potential. The leading answer to this is the proliferation of additional heavy scalars in nature. By “proliferation” we mean the existence of additional spin-zero scalar bosons beyond the Higgs boson that was recently discovered. All particles whose fields transform trivially (i.e., spin-zero) under the Lorentz group operations of rotations and boosts are classified as “additional scalar bosons.” The analogous categories are the spin-1/2 fermions, and the spin-1 bosons. There are at least 45 spin-1/2 fermions in nature...  As yet, we know of only one spin-zero scalar boson... the Higgs boson, and introducing more of these particles creates additional challenges that are not experienced when increasing the number of spin-1/2 and spin-1 representations. For example, if we introduce into the spectrum a scalar Φ with mass MΦ one finds that there is no symmetry that forbids a renormalizable coupling between H and Φ in the form of HΦ. Interactions that are not forbidden by a symmetry generically occur in quantum field theory, since a theory does not suffer from self-consistency and completeness questions “as long as every term allowed by symmetries is included” (Weinberg 2009). Therefore we expect this mixing to be present. However, its presence introduces a dangerous correction to the Standard Model Higgs mass, ∆mH2∝MΦ2. If MΦ2mH2 the weak scale is destabilized and wants to raise itself to the higher mass scale of MΦ. 
It is this prospect of additional heavy scalars that is particularly troublesome for naturalness of the Higgs boson mass and the weak scale. In other words, it is not the intrinsic unnaturalness of the Higgs boson of the Standard Model that is necessarily so troubling, but the immediate prospects of destabilization when its kind is proliferated in nature. There may be an intrinsic naturalness issue with the Standard Model, but that is more controversial as explained above. However, the presence of more scalars at hierarchically larger scales in nature leads to a clear instability problem. In the next section we will discuss in more detail this proliferation instability problem of the Higgs boson. We then argue that this is a real concern for the Standard Model, and that testing a theory against proliferation is not an idle speculation but is confronting a generic possibility. Finally, we show how some theories protect against proliferation instability, and in specific we show that supersymmetry is a prime example of one that solves the problem elegantly
James D. Wells (Submitted on 19 Mar 2016)

For the time being no hint of supersymmetry has been found so as I add in the same comment:
... I find it interesting to underline that some minimal nonsupersymmetric SO(10) models "can (i) fit well all the low energy data, (ii) successfully account for unification of the gauge couplings, and (iii) allow for a sufficiently long lifetime of the proton ... [and] once the model parameters are fixed in terms of measured low energy observables, the requirement of successful leptogenesis can fix the only one remaining high energy parameter" (arxiv.org/abs/1412.4776).

Now in the words of a late giant of particle physics:
The first LHC runs at 7-8 TeV have led to the discovery of a candidate Higgs boson and to the non observation of new particles or exotic phenomena: no signals of new physics have been found neither by direct production of new particles nor in electroweak precision tests nor in flavour physics... This is surprising since the hierarchy problem [1] and, to some extent, the elegant WIMP (Weakly Interacting Massive Particle) solution of Dark Matter strongly suggested the presence of new physics near the Fermi scale. But as well known the hierarchy problem is one of ”naturalness”: the SM theory is renormalizable, finite, well defined and predictive once the dependence on the cut off is absorbed in a redefinition of masses and couplings. Thus the theory can indeed work in practice and the hierarchy problem only arises at the conceptual level if one looks at the cut off as a parametrization of our ignorance on the new physics that will modify the theory at large energy scales. 
... as the criterium of naturalness has so far failed, we are lacking at present a reliable argument on where precisely the new physics threshold should be located... 
The possibility of accommodating all compelling phenomena that demand new physics below MGUT in a non SUSY SO(10) model is highly non trivial. In fact, it singles out a particular breaking chain with a Pati-Salam symmetry at an intermediate mass scale MI∼1011GeV. We have shown that a reasonable fit to the data can be obtained in this framework; of course, the price to pay is a very large level of fine tuning. 
Guido Altarelli, Davide Meloni , A non Supersymmetric SO(10) Grand Unified Model for All the Physics below MGUT, june 9, 2013

Je trouve maintenant intéressant d'essayer de situer dans le contexte qui précède les avancées du programme de géométrisation spectrale de la physique que je rapporte régulièrement sur ce blog. 

Rappelons que les axiomes de la géométrie spectrale noncommutative appliquée à la physique ont été construits pour tenter de comprendre conceptuellement le succès expérimental du modèle standard de la physique des particules en se basant sur l'idée fondamentale suivante: 

l'élément de longueur le mieux à même d'appréhender la physique à l'échelle subnucléaire pourrait être une généralisation de l'opérateur de Dirac ou dit autrement une extension du propagateur quantique pour les fermions.

Soulignons que les axiomes ont été efficacement raffinés au fil des ans par une confrontation patiente et obstinée avec la physique expérimentale ce qui a permis de sélectionner le bon modèle d'espacetemps-matière vu comme le produit d'un espace continu à 4 dimensions avec un espace discret de dimension ordinaire nulle mais pourvu d'une dimension abstraite non nulle littéralement singulière. J'ai volontairement accolé le terme matière à celui d'espacetemps pour souligner l'approfondissement du caractère relationnel entre la notion de matière - telle qu'elle est comprise à l'échelle attométrique avec les fermions du modèle standard : quarks et leptons - et le concept d'espacetemps - tel que le conçoit l'astrophysique jusqu'à l'échelle cosmologique dans le modèle de concordance.]

Grâce au principe d'action spectrale - issu d'une savante distillation du concept d'observable en physique quantique et du principe d'équivalence tiré de la relativité générale -  il est possible d'évaluer la pertinence de la géométrie noncommutative pour la physique des particules en testant les prévisions phénoménologiques à basse énergie des modèles d'espacetemps-matière, supposés exister à une échelle de grande unification, en calculant leur dynamique intrinsèque, c'est à dire le spectre de tous les bosons de jauge et scalaires de Higgs avec leurs nombres quantiques et tous les termes d'interaction (y compris avec les degrés de liberté connus de la gravitation). Comme tente de le souligner le qualificatif modèle d'espacetemps-matière, le spectre des fermions est une donnée initiale mais il est lui même axiomatiquement contraint. 

Moyennant l'usage des techniques éprouvées du groupe de renormalisation on peut alors déduire d'un choix donné d'espacetemps-matière un ensemble de prévisions phénoménologiques à basse énergie comme la masse de 125 GeV pour le scalaire de Higgs du modèle standard, à condition de supposer l'existence d'un couplage spécifique avec un nouveau scalaire noté σ d'une masse de l'ordre de 1012 GeV. On pourrait évidemment croire que cette prévision est issue d'un réglage fin des paramètres du modèle en particulier celui de l'échelle d'unification, or il ne me semble pas que ce soit le cas. Au contraire il est intéressant de constater que la phénoménologie de ce modèle standard spectral est capable en première approximation de s'ajuster naturellement avec celle observée aujourd'hui encore au LHC pour une large plage de valeur d'échelle d'unification entre 6.5×1012−1.4×1017GeV

Plus frappant, il faut souligner que loin d'être introduit de façon ad hoc pour ajuster la masse du Higgs à sa valeur expérimentale, le nouveau scalaire σ - singulet de jauge pour le modèle standard - est aussi directement responsable d'une brisure spontanée de symétrie à l'origine de la masse très faible des trois neutrinos connus (ceux de chiralité gauche) via un mécanisme de bascule (seesaw) de type I qui requiert l'existence supplémentaire de trois nouveaux neutrinos de chiralité droite ayant une masse de Majorana de l'ordre de l'échelle d'unification. Ainsi le modèle standard spectral avec le formalisme géométrique particulier dont il découle n'est pas loin de réaliser une théorie standard susceptible d'expliquer aussi la seule phénoménologie de physique des particules au delà du modèle standard ordinaire clairement établie: celle des oscillations de saveur de neutrinos.

Plus prometteur encore il faut souligner que l'importance du rôle du scalaire σ pour la physique a obligé les explorateurs du jardin noncommutatif à revoir leurs axiomes : leur permettant de réduire (et non d'augmenter!) leur nombre et cela de différentes manières. Les derniers développements pour la physique des hautes énergie conduisent à la sélection axiomatique et à la distillation spectrale d'une classe particulière de modèles de grande unification à la Pati-Salam qui sont sensiblement voisins dans leurs phénoménologies des modèles nonsupersymétriques basés sur le groupe SO(10) cités plus haut. D'autres considérations permettent aussi d'envisager une meilleur compréhension de la transition de phase qui pourrait survenir à l'échelle de grande unification.

Je n'ai pas encore trouvé dans la littérature scientifique (pré)publiée de travail visant à étudier systématiquement la phénoménologie du modèle standard spectral ou ses extensions à la Pati-Salam. Je ne doute pas qu'un jour un tel travail soit entrepris. Même si à première vue la tâche peut paraître ingrate dans la mesure où il y a tout lieu de penser qu'il sera très difficile de trouver une expérience cruciale de physique subatomique à même d'apporter une preuve irréfutable de la véracité de ce type de modèle, je constate qu'il y a par exemple encore de courageux thésards et d'audacieux directeurs de thèse pour travailler sur des modèles où les particules au delà du modèle standard sont à des échelles inaccessibles, sur Terre du moins. La réponse finale viendrait alors du ciel, de l'astrophysique donc : quoi de plus naturel pour des spéculations qui reposent sur une compréhension du scalaire de Higgs comme un boson de jauge associé à la composante discrète de l'espacetemps-matière, une trace de la gravitation quantique à l'échelle électrofaible... mais ceci est une autre histoire.

Pour revenir au problème de la naturalité du scalaire de Higgs, il me semble que la recherche de sa solution gagnerait à être envisagée plus systématiquement dans le cadre de la géométrie noncommutative. Les initiateurs du programme de géométrie spectrale noncommutative ont déjà dessiner des pistes ici et . Je trouve intéressant de noter que pour ce que je peux comprendre de la première par exemple elle révèle la présence naturelle dans l'action spectrale d'un terme lié aux neutrinos de Majorana droits permettant d'annuler la divergence quadratique des corrections radiatives à la masse du boson de Higgs à condition d'en avoir au moins trois...

En guise de conclusion personnelle et donc très hypothétique:
Peut-être que "tuer certaines divergences dans des calculs perturbatifs en les compensant génériquement (pour le dire naïvement) par des particules supersymétriques n'est pas jouer" selon les règles de la nature.