Thème 3 : Une histoire du vivant

3.1 La biodiversité et son évolution

Évaluer la biodiversité à différentes échelles spatiales et temporelles représente un enjeu majeur pour comprendre sa dynamique et les conséquences des actions humaines. Les populations évoluent au cours du temps. Des modèles mathématiques probabilistes et des outils statistiques permettent d’étudier les mécanismes évolutifs impliqués.

Il existe sur Terre un grand nombre d’espèces dont seule une faible proportion est effectivement connue.

La biodiversité se mesure par des techniques d’échantillonnage (spécimens ou ADN) qui permettent d’estimer le nombre d’espèces (richesse spécifique) dans différents milieux. Les composantes de la biodiversité peuvent aussi être décrites par l’abondance (nombre d’individus) d’une population, d’une espèce ou d’un plus grand taxon.

Il existe plusieurs méthodes permettant d’estimer un effectif à partir d’échantillons.

Une estimation ponctuelle d’un effectif par la méthode dite de capture, marquage, recapture repose sur le principe de proportionnalité.

À partir d’un seul échantillon, la proportion d’une population portant un caractère donné peut également être estimée à l’aide d’un intervalle de confiance. Une telle estimation est toujours assortie d’un niveau de confiance strictement inférieur à 100 % en raison de la fluctuation des échantillons. Pour un niveau de confiance donné, l’estimation est d’autant plus précise que la taille de l’échantillon est grande.

« La valeur-p : un problème significatif » Pour la Science, avril 2020

Au cours de l’évolution biologique, la composition génétique des populations d’une espèce change de génération en génération.

Le modèle mathématique de Hardy-Weinberg utilise la théorie des probabilités pour décrire le phénomène aléatoire de transmission des allèles dans une population. En assimilant les probabilités à des fréquences pour des effectifs de grande taille (loi des grands nombres), le modèle prédit que la structure génétique d’une population de grand effectif est stable d’une génération à l’autre sous certaines conditions (absence de migration, de mutation et de sélection).

Cette stabilité théorique est connue sous le nom d’équilibre de Hardy-Weinberg.

Les écarts entre les fréquences observées sur une population naturelle et les résultats du modèle s’expliquent notamment par les effets de forces évolutives (mutation, sélection, dérive, etc.).

Les activités humaines (pollution, destruction des écosystèmes, combustions et leurs impacts climatiques, surexploitation d’espèces, …) ont des conséquences sur la biodiversité et ses composantes (dont la variation d’abondance) et conduisent à l’extinction d’espèces.

« Les méfaits de la pollution lumineuse » Pour la Science avril 2020

La fragmentation d’une population en plusieurs échantillons de plus faibles effectifs entraîne par dérive génétique un appauvrissement de la diversité génétique d’une population.

La connaissance et la gestion d’un écosystème permettent d’y préserver la biodiversité.

3.2 L’évolution comme grille de lecture du monde

Les concepts de biologie évolutive ont une large portée explicative, présentée ici à travers plusieurs exemples. Ils permettent de comprendre l’anatomie comme le résultat d’une longue histoire évolutive, faite d’adaptations, de hasard, de contingences et de compromis. Les concepts de variation et de sélection naturelle éclairent des pratiques humaines (médicales et agricoles) et certaines de leurs conséquences.

Les structures anatomiques présentent des particularités surprenantes d’un point de vue fonctionnel, pouvant paraître sans fonction avérée ou bien d’une étonnante complexité. Elles témoignent de l’évolution des espèces, dont la nôtre. Les caractères anatomiques peuvent être le résultat de la sélection naturelle mais certains sont mieux expliqués par l’héritage de l’histoire évolutive que par leur fonction.

L’évolution permet de comprendre des phénomènes biologiques ayant une importance médicale.

L’évolution rapide des organismes microbiens nécessite d’adapter les stratégies prophylactiques, les vaccins et les antibiotiques.

Depuis la révolution agricole, la pratique intensive de la monoculture, la domestication et l’utilisation de produits phytosanitaires ont un impact sur la biodiversité et son évolution.

3.3 L’évolution humaine

La paléoanthropologie construit un récit scientifique de nos origines à partir des archives fossiles. La phylogénie permet d’étudier les relations de parenté entre les espèces actuelles et fossiles d’Hominidés.

L’espèce humaine actuelle (Homo sapiens) fait partie du groupe des primates et est plus particulièrement apparentée aux grands singes avec lesquels elle partage des caractères morpho-anatomiques et des similitudes génétiques.

C’est avec le chimpanzé qu’elle partage le plus récent ancêtre commun.

Des arguments scientifiques issus de l’analyse comparée de fossiles permettent de reconstituer l’histoire de nos origines.

L’étude de fossiles datés de 3 à 7 millions d’années montre des innovations caractéristiques de la lignée humaine (bipédie prolongée, forme de la mandibule).

Le genre Homo regroupe l’espèce humaine actuelle et des espèces fossiles qui se caractérisent notamment par le développement de la capacité crânienne.

Plusieurs espèces humaines ont cohabité sur Terre.

Certains caractères sont transmis de manière non génétique : microbiote, comportements appris dont la langue, les habitudes alimentaires, l’utilisation d’outils…

3.4 Les modèles démographiques

Dans le cadre de l’étude de l’évolution des populations, il est important de prédire leur effectif futur mais aussi la manière dont vont évoluer les ressources qui leur sont nécessaires. Pour prédire l’évolution d’un système quelconque, les scientifiques utilisent des modèles mathématiques. La présentation de l’exemple historique de Malthus permet de mettre en œuvre cette démarche mathématique dans le cas discret (correspondant à une variation par paliers).

Un modèle mathématique simple est le modèle linéaire.

Une grandeur discrète u varie de manière linéaire en fonction d’un palier entier n si sa variation absolue

u(n+1)u(n) est constante. Dans ce cas, les points (n, u(n)) sont situés sur une droite affine.

Dans la réalité, pour une population dont la variation absolue est presque constante d’un palier à l’autre, on peut ajuster le nuage de points qui la représente par une droite (modèle linéaire).

Le modèle linéaire est inadapté pour représenter l’évolution d’une grandeur dont la variation absolue change fortement d’un palier à l’autre.

Une grandeur discrète u varie de manière exponentielle en fonction du palier entier n si sa variation absolue est proportionnelle à sa valeur courante. Dans ce cas, sa variation relative (ou taux de variation) est constante.

Dans la réalité, pour une population dont le taux de variation est presque constant d’un palier à l’autre, on peut ajuster le nuage de points par un modèle exponentiel.

Le modèle démographique de Malthus est un modèle exponentiel d’évolution de l’effectif de la population. Il prévoit que l’effectif de la population décroît vers 0 si le taux de mortalité est supérieur au taux de natalité et croît vers l’infini si le taux de natalité est supérieur au taux de mortalité.

Si les prédictions du modèle de Malthus peuvent se révéler correctes sur un temps court, elles sont irréalistes sur un temps long, notamment en raison de l’insuffisance des ressources disponibles.

Des modèles plus élaborés prévoient que la population mondiale atteindra environ 10 milliards d’humains en 2050.

3.5 L’être humain peut-il externaliser son « intelligence » ?

L’être humain n’a cessé d’accroître son pouvoir d’action sur le monde, utilisant son intelligence pour construire des outils et des machines. Il a élaboré un mode de pensée algorithmique susceptible d’être codé dans des langages permettant de commander ces machines. Aujourd’hui, l’intelligence artificielle (IA) permet l’accomplissement de tâches et la résolution de problèmes jusqu’ici réservés aux humains : reconnaître et localiser les objets dans une image, conduire une voiture, traduire un texte, dialoguer, … Un champ de l’intelligence artificielle ayant permis des applications spectaculaires est celui de l’apprentissage machine.

Jusqu’au début du XXe siècle, les machines traitant l’information sont limitées à une ou quelques tâches prédéterminées (tisser grâce à un ruban ou des cartes perforées, trier un jeu de carte perforées, séparer des cartes selon un critère, sommer des valeurs indiquées sur ces cartes, …). Turing a été le premier à proposer le concept de machine universelle qui a été matérialisé dix ans plus tard avec les premiers ordinateurs. Ceux-ci sont constitués a minima d’un processeur et d’une mémoire vive.

Un ordinateur peut manipuler des données de natures diverses une fois qu’elles ont été numérisées : textes, images, sons. Les programmes sont également des données : ils peuvent être stockés, transportés, et traités par des ordinateurs. En particulier, un programme écrit dans un langage de programmation de haut niveau (Python, Scratch, …) peut être traduit en instructions spécifiques à chaque type de processeur.

Un programme peut comporter jusqu’à plusieurs centaines de millions de lignes de code, ce qui rend très probable la présence d’erreurs appelées bogues (ou bugs). Ces erreurs peuvent conduire un programme à avoir un comportement inattendu et entraîner des conséquences graves.

Le terme « intelligence artificielle » (IA) recouvre un ensemble de théories et de techniques qui traite de
problèmes dont la résolution fait appel à l’intelligence humaine.

L’apprentissage machine (ou « apprentissage automatique ») utilise des programmes capables de s’entraîner à partir de données. Il exploite des méthodes mathématiques qui, à partir du repérage de tendances (corrélations, similarités) sur de très grandes quantités de données (big data), permet de faire des prédictions ou de prendre des décisions sur d’autres données.

La qualité et la représentativité des données d’entraînement sont essentielles pour la qualité des résultats. Les biais dans les données peuvent se retrouver amplifiés dans les résultats.

L’inférence bayésienne est une méthode de calcul de probabilités de causes à partir des probabilités de leurs effets. Elle est utilisée en apprentissage automatique pour modéliser des relations au sein de systèmes complexes, notamment en vue de prononcer un diagnostic (médical, industriel, détection de spam, …).
Cela permet de détecter une anomalie à partir d’un test imparfait.

%d blogueurs aiment cette page :