jeudi 21 juillet 2022

Heuristique et Recherche fondamentale

 

I- DÉFINITION

L'heuristique - terme issu du grec ancien εὑρίσκω - je trouve -  en recherche fondamentale peut se définir comme l'emploi de la logique associative établissant une corrélation entre différents contenus de la connaissance humaine en vue de formuler une réponse aux consensus médiatiques divergents portant sur les questions d'ordre scientifique. L'origine de la vie sur la planète Terre est un thème récurrent.

 La recherche fondamentale relie une observation à une expérimentation en combinant intuitivement et par approches successives les procédés technologiques du moment avant leur transposition en recherche appliquée dés que la méthodologie conduit  aux mêmes résultats . Elle diffère ainsi du formalisme  abstrait de la théorie procédant par postulats contrairement à la remise en cause de la démarche volontariste en recherche fondamentale ne préjugeant pas du résultat final. 

 La recherche appliquée masque les concepts de la recherche fondamentale en les fragmentant. Une démarche intellectuelle à  contrecourant des publications scientifiques du moment a contribué historiquement à l'avancée des connaissances.

II- AXIOMATIQUE

Ses axiomes - le pourquoi étant indissociable du comment alors que tout est dans tout et réciproquement  - doivent intégrer les avancées en recherche appliquée face à leur cloisonnement du à l'orientation des applications offrant un retour rapide sur investissements comme dans l'industrie pharmaceutique.

Les sciences formelles comme les mathématiques créent leur propre référentiel et et enrichissent son contenu par raisonnement déductif alors que les sciences naturelles se réfèrent ...à l'observation et privilégient le raisonnement inductif.

Ainsi, en mathématiques, 1+1= 10 en système binaire mais 2 en système décimal.

Du fait de l'instabilité de la combinatoire des phénomènes observés présumés répétitifs à travers des lois - notamment en génétique - , de nouvelles branches scientifiques de spécialisation prennent le relais pour approfondir leurs dérogations (exemples: génétique > épigénétique..). La nature est ainsi abordée par "fragments".

La logique mathématique des prédicats définit une sémantique utilisant des connecteurs entre couples (propriétés, entités) de façon à éviter contrariétés et contradictions dans leur séquençage syntaxique. Les prémisses sous la forme d'un postulat représentées par des atomes élémentaires peuvent avoir un antécédent nuançant la portée des conclusions.

Les statistiques, branche des mathématiques, pourraient être une voie d'orientation pour la recherche fondamentale. Toutefois sous réserve de l'emploi correct des formules, le choix du découpage des données élémentaires au sein des intervalles de classes peut répondre à des objectifs argumentaires différents et fausser leur neutralité pour la communication au  grand public.

La difficulté rencontrée en recherche fondamentale et non en recherche appliquée est celle du choix le plus large des domaines scientifiques, puis de leur branche à laquelle seront rapprochées les découvertes nées de l'observation (prises au sens large).
 

III- APPLICATIONS

 

 L'expérience mentale est une méthode de recherche fondamentale souvent utilisée qui ne requiert pas de moyens matériels. Elle utilise la seule puissance de l'imagination humaine dans un contexte de transposition fictive d'une mise en situation réelle non réversible.  Elle ne peut donc pas aboutir à une fonction d'état, la solution étant dépendante de la nature de la transformation: un premier exemple, l'ascenseur d'Einstein.
 
L'accélération dans un ascenseur en montée génère un champ complémentaire à la pesanteur terrestre pour  le passager. Ce champ est ressenti mentalement par le passager comme une augmentation de sa masse . Un rayon lumineux frappant soudain à l'horizontale la cabine serait perçu par celui-ci comme infléchi vers le bas car, partant de l’hypothèse de sa vitesse constante dans tout référentiel, il ne subit pas aucune accélération. Le correctif de dilatation du temps à apporter aux mesures expérimentales pour être en conformité avec les principes de la mécanique ondulatoire relativiste, dépend donc du référentiel où s'effectue la mesure à l'aide du facteur de Lorentz, nombre sans dimension ci-dessous avec  v: vitesse de l'onde; c: constante vitesse de la lumière. 
Dans cette expérience mentale, l'introduction des variations de l'énergie potentielle de la pesanteur conduit à un nouveau concept: le couple espace-temps. L'accélération dans La proximité d'astres massifs sous l'effet de la force de pesanteur induit donc une déformation locale de l'espace-temps se déclinant visuellement en courbures géodésiques pour les observateurs à la condition qu'ils accèdent au même référentiel. L'espace-temps est soumis aux variations ondulatoires à l'approche du champ gravitationnel d'astres massifs. Les effets de l''interaction entre ce type de champ est particulièrement perceptible lors de la fusion de trous noirs avec le phénomène de résonance spin-orbite.   
  
Confirmation partielle de ce phénomène est illustrée par l'effet de lentille gravitationnelle : un anneau lumineux peut être observé autour de la lentille constituée d'un astre massif situé dans l'alignement entre la source lumineuse d'une étoile et l'observateur se trouvant proche du point où se forme l'image. Sa taille dépend de la déviation de la lumière, qui dépend elle-même de la structure spatiale de la masse de la lentille.
 
Le second exemple d'expérience mentale retenu "le chat de Schrödinger" conforte en physique quantique le principe de superposition d'états. Un chat enfermé dans une boîte hermétique soumis à des radiations pouvant se révéler mortelles au bout d'un temps non défini à l'avance est à la fois vivant et mort, sachant que seule l'ouverture de la boîte lèvera l'indétermination.

Par transposition à la physique quantique, les interactions crées par un environnement possédant un grand nombre de degrés de liberté modifient progressivement par déphasage la fonction d'onde de deux états quantiques excités superposés suivant le formalisme mathématique de Schrödinger, la convergence finale vers un état quantique unique n'étant pas prédictible à l'aide des probabilités contrairement à la position de la particule. 
 
 Le déterminisme ne s'applique qu'à l'échelle macroscopique lorsque le facteur masse devient prépondérant.
 
En biologie, l'évolution des espèces - du virus à la stabilisation d'une lignée cellulaire chez les  eucaryotes  répond au même principe.
 
En toute hypothèse, les premiers virus - de type ARN - seraient issus, par recombinaison, de la dégradation irréversible des premières cellules souches bactériennes (sans noyau par définition) apparues en premier dans le milieu aquatique.
 
Ils présentent en effet des taux de mutation très élevés car contrairement aux virus de type ADN, ils ne possèdent pas d'ADN polymérases capables de détecter et de corriger les erreurs de transcription. 
 
Leurs enzymes peuvent interférer avec le complexe ribosomique de la cellule hôte provoquant des erreurs de décalage dans la lecture de l'ARNm et provoquer des mutations en chaîne d'un génome à un autre entre différentes espèces tant animales que végétales  (procaryotes,eucaryotes) situées dans un même environnement, contribuant à  leur survie ou à leur disparition. 
 
En particulier, la classe des rétrovirus utilise l’enzyme "transcriptase inverse" pour transcrire leur ARN génomique en un  brin d’ADN complémentaire qu'elle intègre à l'aide de protéines de capside dans le cytoplasme de la cellule infectée. Son expulsion après sa réplication utilise le bourgeonnement dans son enveloppe de membrane plasmique, le processus s'effectuant sans duplication par scission du virion initial.

L’activation du virion peut toutefois être bloquée par la méthylation de l’ADN, phénomène épigénétique réversible empêchant l’interaction entre le gène et les facteurs de transcription localisés en particulier dans la région promotrice. 

L'isolement en vue de la culture d'un virus par les laboratoires de recherche n'est vraiment utile à la société que s'il est classifié agent pathogène. En effet, les cycles biologiques de toute cellule (bactèries y compris) ne pourraient perdurer si la fonction de ses  organites ne s'adaptait pas progressivement à l'introduction de nouveaux virus..

 
L'expérience mentale est basée sur l'intuition mais nécessite, comme on a vu plus haut, une mise en condition réaliste des paramètres, ce qui n'est pas toujours
possible selon le sujet étudié.  
 
L'expérience par la pensée peut associer comme ci-dessous l'abstraction mathématique à la physique des fluides. 

Imaginons le treillis de Boole distributif et complémenté à un atome avec E+ et E- , instable dans chaque branche latérale, donc E énergie nulle à la borne inférieure commune O. 
 
La récursivité au sein d'un cycle (E+ E- <>  O) accéléré (BIG BANG) implique, d'une part que le vide cosmologique a contribué à la formation de  l'Univers, d'autre part qu'il a donné forme aux exoplanètes par agrégation de particules soumises aux contraintes de cette barrière sans laquelle la masse atomique de ces particules n'aurait pas de propriétés d'électromagnétisme intrinsèques.
 
Réciproquement, l'énergie noire réajustée en permanence sous la forme de fluctuations du vide par l'évolution géodésique des exoplanètes confère au vide ses propriétés d'isotropie pour le rayonnement, d'apesanteur en présence d'une masse et de la température limite du zéro absolu.
 
 L'autre voie de la recherche fondamentale est celle de l'observation sensorielle (visuelle, auditive...)  de phénomènes naturels se reproduisant à l'identique et située hors du champ de notre compréhension, complétée par l'analyse des interactions y contribuant, par l'énoncé de prémices d'une loi généraliste comme ci-dessous: 

Deux corps obéissent à la même loi énoncée par Galilée au début du XVII ième siècle quand ils sont lâchés simultanément sans vitesse initiale sur le sol. Leurs temps de chute contre toute attente sont égaux, proportionnels à la racine carrée de l'altitude et ne dépendent pas de leur énergie potentielle initiale, d'où l'introduction du concept de masse caractérisant chaque corps soumis à la force de pesanteur. L'insertion dans  un champ vectoriel de la force de gravité aboutit à l'égalité reprise dans le principe  d'équivalence faible entre la masse inertielle et la masse gravitationnelle pour tout corps. 

En utilisant un plan incliné dans l'expérimentation précédente, sans tenir compte de la déperdition par frottements statiques à l'horizontale, on déduit par extrapolation que la masse d'un corps soumis à aucune force est conservatrice dans le vide, la translation rectiligne uniforme répondant à toute impulsion. 

La recherche appliquée, par comparaison, est liée à la disponibilité des moyens mis en œuvre pour élaborer une réponse aux postulats de la recherche fondamentale. Le recours maîtrisé aux mathématiques de plus en plus complexe dans l'univers infinitésimal permet un ajustement probabiliste de leur formulation pour être conforme aux résultats expérimentaux se terminant le plus souvent par l'introduction de constantes universelles (la vitesse c du photon "grain de lumière", la constante h de Planck reliant son énergie à sa fréquence,  la constante cosmologique en supposant l'univers isotrope et homogène ...).

"Les mathématiciens n’étudient pas des objets, mais des relations entre les objets ; il leur est donc indifférent de remplacer ces objets par d’autres, pourvu que les relations ne changent pas. La matière ne leur importe pas, la forme seule les intéresse".

Cette critique en page 49 faite par Henri Poincaré dans son livre La Science et l'Hypothèse (1902) réédité en 2004 est partiellement pertinente dans le contexte actuel de la théorie de la relativité introduite par Einstein à partir des quatre classes d'interactions élémentaires - l'interaction nucléaire forte, l'interaction électromagnétique, l'interaction faible et l'interaction gravitationnelle - responsables de tous les phénomènes physiques observés dans l'Univers. En revanche, les probabilités appliquées au comportement d'une unité de matière peuvent contribuer à définir lors de leur agrégation leurs propriétés générales (la théorie des gaz par Ludwig Boltzmann 1844-1906). 

L'interaction n'apporte qu'une réponse sur le comportement de la matière face à une modification de son environnement mais pas sur la nature profonde de son contenu qui sera modélisé en catégories de particules de plus en plus petites, à durée de vie de plus en plus courtes  - molécule/atome/quarks et anti-quarks...- et dont la découverte est liée à la puissance des accélérateurs de particules. L'approche graphique des interactions entre particules par les bosons de jauge est l'objectif des diagrammes de FEYNMAN. 

En effet, en fragmentant la physique fondamentale en différentes spécialités éloignées de plus en plus du déterminisme, elle s'oppose à l'élaboration d'une théorie du tout expliquant la formation de l'univers primitif. 

L’énergie E d’un photon dans le spectre visible en moyenne de 2 eV, boson de jauge dans  l’interaction électromagnétique, inversement proportionnelle à sa longueur d'onde, ne peut s'exprimer par la formule
E=m*c^2 car sa masse m est nulle; plus précisément, elle obéit à la relation de Planck-Einstein 
E = h ⋅ c / λ , avec  λ, sa longueur d'onde d'où un classement à part des ondes électromagnétiques dans la relativité.  

Le modèle standard de la physique quantique se distingue de la physique classique, ne serait-ce que sa formulation mathématique (énergies cinétiques relativistes et Newtoniennes...); il n’intègre ni la force gravitationnelle ni la relativité générale d'Einstein.

Le réseau neuronique du cerveau humain pour la sélection des données essentielles, leur analyse, la recherche en boucle de leur enchaînement logique aboutissant à la formulation d'un principe novateur pouvant à tout moment être remis en cause par un fait innovant doit être privilégiée.
 
La constance du chercheur indépendant (Albert Einstein 1879-1955, Louis de Broglie 1892-1987 notamment) est requise, la curiosité par l'éveil renforcé des sens, un atout. Elle affine la méthode du brainstorming  élaborée à partir de 1940 en éliminant les biais cognitifs attentionnels à partir de la recherche d'information la plus étendue possible. De ce fait, la recherche fondamentale peut générer dans le cerveau humain des troubles obsessionnels à la suite d'idéations (idées ou images) qui font irruption dans la pensée, s'imposent au patient et se répètent sans lui laisser de repos. C'est la contrepartie de la non adhésion aux croyances relatives au thème étudié et de l'extension involontaire par renforcement de ses capacités d'analyse à d'autres domaines.

La recherche fondamentale peut faire appel à l'intelligence artificielle pour l'analyse documentaire après formalisation de l'état avancé des connaissances par mots clés.  Les combinaisons non pertinentes seront écartées par l'ordinateur quantique doté de qubits. En effet, la diffusion de l'information sur multisupports médiatiques est souvent parcellaire, avec des variantes, sans suivi régulier, les thèmes porteurs de l'actualité revenant cycliquement en occultant les autres.

 En conclusion, l'heuristique en recherche fondamentale s'appuie avant tout sur le raisonnement inductif nécessitant un esprit imaginatif dans la synthèse, donc sur les facultés intellectuelles du genre humain avec toutefois des prédispositions dans le cas d'un trouble de stress cognitif. Son application concerne tout domaine de connaissances, celui des sciences abordé dans cet article n'étant pas restrictif.


IV- BASES DOCUMENTAIRES

 

La recherche fondamentale doit s'appuyer sur les bases documentaires actualisées de la recherche appliquée et non sur les croyances populaires du moment relayées par l'actualité cinématographique, du genre "L'homme a attéri sur la lune donc la réciproque est vraie: des extraterrestres sous la forme de bactéries sont à l'origine la vie sur terre".

Les articles scientifiques publiés dans les périodiques commercialisés en version papier  (journaux, revues...) ou accessibles en version numérique par abonnement sont rédigés la plupart du temps avec des titres à sensation pour attirer de nouveaux lecteurs et par des chercheurs en quête de notoriété. 


Le Web offre une base de données pléthorique mais souvent parcellaire, non fiable avec ses fake news, nécessitant l’accès en séquence à de nombreux sites. Son avantage consiste en une information facilement ciblée et immédiatement disponible grâce aux moteurs de recherche. Toutefois, le classement des sites s'effectue sur la base de mots-clés les plus consultés insérés dans leur contenu. L'intérêt commercial est un facteur à prendre en compte: il s'appuie, d'une part sur les pages publicitaires, d'autre part sur le ciblage des visiteurs par le biais des cookies. 


On préférera la consultation de sites officiels français comme l'Inserm, seul organisme public de recherche français entièrement dédié à la santé humaine, Legifrance dans le domaine juridique, CNRS, CERN  organismes publics de recherche pluridisciplinaire. 

Les articles publiés par Wikipédia, projet d’encyclopédie collective en ligne, ont l'intérêt d'offrir aux lecteurs une vision actualisée et référencée des connaissances selon les spécialités.
 

Un support de cours par discipline et en version papier dans les librairies restera là encore une première approche de formation pour le lecteur autodidacte. Les illustrations sous forme de schémas permettront une appréhension des concepts sans se focaliser sur une terminologie - notamment en biochimie cellulaire- associée aux applications de plus en plus riches en abréviations.



                                                                    ************


 Avertissement: L'interprétation comparative des textes d'auteurs n'étant pas l'objectif du présent essai littéraire, il n'a pas été fait référence ici à leurs publications. Par ailleurs, l'auteur n'a pas souhaité s'inscrire sur les réseaux sociaux.


Tous droits de reproduction autorisés à l'exclusion de toute utilisation à des fins commerciales. L'ensemble des zones "commentaire du blog" permettant un droit de réponse ne doit pas comporter des données à caractère personnel au sens de la loi 78-17 du 6 janvier 1978. La responsabilité du directeur de publication ne pourra pas être recherchée sur ce motif.


webmaster/directeur de publication: Dany Wide  janvier 2019   mise à jour 21/07/2022