Informations

Pourquoi les régions de faible complexité seraient-elles liées à une sélection relâchée ?

Pourquoi les régions de faible complexité seraient-elles liées à une sélection relâchée ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je lis un texte (Wagner, 2007) sur l'identification de la sélection positive. Dans l'article, l'auteur dit que les régions de faible complexité sont connues pour être associées à la sélection relâchée. J'essaie de comprendre pourquoi c'est vrai. Je comprends que si la région est sous sélection assouplie, la plupart des mutations seraient tolérées, mais pourquoi cela conduirait-il à une faible complexité (autre que quelque chose comme un glissement pendant la réplication de l'ADN)

C'est dans la section : "Peu de chevauchement entre les clusters de variation et les régions de faible complexité"

Wagner A. 2007. Détection rapide de la sélection positive dans les gènes et les génomes grâce à des grappes de variation. La génétique 176(4): 2451-2463.


Qu'est-ce que la complexité ?

La "complexité" dans ce cas est dérivée de l'algorithme SEG, qui est basé sur l'entropie de l'information de Shannon. Il ne s'agit pas nécessairement de régions répétées, mais de régions dans lesquelles un pool limité de caractères est utilisé (par exemple des régions transmembranaires, dans lesquelles vous êtes beaucoup plus susceptible de voir un résidu hydrophobe qu'un résidu polaire). Ces scripts peuvent vous aider à calculer la complexité de la séquence si vous avez des exemples spécifiques en tête.

Cette idée demande dans quelle mesure les informations contenues dans la chaîne de caractères sont "compressibles" (pensez aux fichiers zip). Les caractères aléatoires dans les chaînes nécessitent plus d'informations, tandis que les régions moins variables et plus prévisibles peuvent être enregistrées avec moins d'informations et sont moins complexes. Ainsi, une région dans laquelle vous pouvez plus facilement deviner l'acide aminé suivant est simple, et les séquences d'acides aminés plus aléatoires sont complexes. Les séquences plus complexes sont souvent plus importantes sur le plan fonctionnel et plus utiles en tant qu'indicateurs fonctionnels que les séquences de faible complexité. En effet, BLAST masquait les régions de faible complexité car elles n'étaient pas utiles pour les recherches d'homologie.

Pourquoi les régions complexes sont-elles plus variables ?

La question telle que je la comprends concerne cette quatrième conclusion du document.

Quatrièmement, des grappes de variation se produisent dans des domaines protéiques structurellement bien définis et fonctionnellement importants de complexité de séquence élevée.

Ce n'est plus aussi paradoxal qu'il n'y paraît. Les régions très variables avec beaucoup plus d'acides aminés aléatoires/imprévisibles, telles que celles avec des structures et des fonctions bien définies, sont plus susceptibles de se produire dans des zones à complexité élevée (qui est une mesure du caractère aléatoire d'une séquence).

Il y a plus à cela qu'il n'y paraît…

Ce n'est bien sûr pas toute l'histoire. Dans les régions de grande complexité, il existe des résidus hautement conservés et essentiels à la vie qui ne peuvent pas être modifiés. À l'autre extrémité de l'échelle, il existe également des domaines comme les STR qui ont une faible complexité mais sont de longueur très variable entre les individus et sous-tendent les empreintes génétiques.


Les régions de faible complexité ont des répétitions en nucléotides (ou acides aminés). Par exemple. PPCDPPPPPKDKKKKDDGPP ou AAATAAAAAAAATAAAAAAT. Cet article de 2011 compare 14 génomes individuels de Plasmodium falciparum et constate que ces répétitions sont très variables entre les individus - certains peuvent être courts AAAATAAAA d'autres peuvent être plus longs AAAATAAAAAAAAATAAAAAAAATAAAATAAAA… AATAA même à des dizaines de bases.

Je pense que ce que font ces séquences n'est pas clair, mais le simple fait qu'elles puissent tellement varier d'un individu viable à un autre indique qu'elles ne sont pas fortement sélectives. * S'ils étaient soumis à la sélection, vous seriez en mesure de voir la différence dans la variation de la santé, de la forme physique et de la reproduction que ces changements génétiques importants ont, mais dans ce cas, le changement de séquence ne modifierait pas les propriétés de la séquence beaucoup voire pas du tout. *

Je pense que ceux-ci sont également liés aux régions de variable de nombre de copies (CNV). qui se dilatent et se contractent facilement dans le génome, même entre jumeaux identiques. (désolé pour la référence indirecte - comme beaucoup d'histoires SDN, la référence est totalement fausse), mais je me souviens de ce travail…


Mauvais épissage de l'ARN dans la maladie

Le transcriptome humain est le produit d'une série coordonnée d'événements de régulation transcriptionnels, co-transcriptionnels et post-transcriptionnels.

L'épissage de l'ARN est une étape clé de la régulation de l'expression des gènes qui permet à un génome limité d'exprimer une diversité impressionnante d'ARN codants et non codants.

Le mauvais épissage de l'ARN provoque un large éventail de maladies humaines dues à des mutations héréditaires et somatiques.

Un mauvais épissage peut résulter de mutations de l'ARN cis-éléments régulateurs, composants spliceosomal de base ou trans-facteurs régulateurs agissants.

Des mutations dans certains gènes, comme la lamine A (LMNA), provoquent de multiples types de maladies, de la dystrophie musculaire aux syndromes de vieillissement prématuré.

Un composant clé du petit ARN nucléaire (snRNA) du spliceosome mineur fonctionne comme un commutateur activé par le stress pour contrôler les niveaux d'expression des gènes contenant des introns mineurs.

Certains facteurs d'épissage liés à des maladies, comme la sclérose latérale amyotrophique, contiennent des régions de faible complexité avec des domaines de type prion qui sont sensibles à une agrégation anormale.

Des stratégies thérapeutiques modulatrices d'épissage ont été développées qui ciblent une gamme de maladies, y compris les dystrophies musculaires et les maladies des motoneurones, et sont actuellement testées dans des essais cliniques.


Processus de type évolutif en développement

Comprendre comment et pourquoi la sélection naturelle produit de la complexité a été considérablement avancé en reconnaissant comment les processus de type darwinien qui se déroulent à d'autres niveaux de développement et d'échelle contribuent. Un mécanisme de développement particulièrement pertinent pour l'évolution de la complexité cognitive est le processus de type sélection qui affine les schémas de connexion axonale dans le système nerveux en développement. L'organisation globale des cerveaux des mammifères présente un profond conservatisme, avec des mécanismes épigénétiques communs responsables de leur organisation segmentaire et de la détermination de modèles de connexion à grande échelle entre les régions (29 ⇓ –31). Mais en complément de cette architecture commune sous-jacente générée dans les phases précoces de l'embryogenèse, il existe également une phase plastique ultérieure, et plus ou moins « régressive » du développement du cerveau, qui contribue aux variations sur ce thème général (32 ⇓ ⇓ –36). Le réglage fin des circuits neuronaux pour correspondre à l'architecture corporelle spécifique et aux spécialisations sensorielles, et leurs variations au sein et entre les espèces, implique une logique de sculpture qui est vaguement analogue à la sélection naturelle à plusieurs égards. L'établissement de connexions neuronales par excroissance et invasion axonale implique initialement une phase quelque peu non spécifique où le guidage axonal est largement contrôlé par des mécanismes d'attraction, de répulsion et d'adhésion très conservateurs, en grande partie le résultat d'effets d'expression génique locale. Ce processus semble être assez général pour les espèces, avec de nombreux mécanismes partagés par un large éventail de vertébrés.

Bien que de légers ajustements de cette architecture cérébrale générale de l'espèce jouent probablement un rôle important dans la production des différences structurelles et fonctionnelles des cerveaux de différentes espèces, une contribution significative provient également de processus de type sélection qui intègrent des informations intra- et extra-organismes dans le réglage fin. de circuits neuronaux. Le modèle global de connectivité globale de l'espèce qui est soumis à un guidage génétique fort mais à faible résolution devient l'échafaudage pour la différenciation connexionnelle ultérieure en réponse à la compétition dépendante de l'activité médiée par le signal pour la stabilité synaptique (37). Ces interactions compétitives semblent suivre une logique de corrélation de signal Hebbian caractérisée par le mnémonique « des neurones qui se déclenchent ensemble se connectent ensemble ». Dans de nombreux systèmes, l'élimination compétitive des connexions est également corrélée à l'apoptose neuronale (mort cellulaire « programmée »). Ce processus produit la précision à petite échelle des modèles de connexion qui correspondent aux populations neuronales et aux topographies des structures cérébrales et périphériques interdépendantes.

Cela reflète l'une des stratégies générales de la vie pour faire face au problème d'obtenir une vaste gamme de caractéristiques de l'organisme pour obtenir une bonne intégration fonctionnelle les unes avec les autres - efficacement adaptées pour se compléter - avec une flexibilité maximale et des informations de conception minimales. Un précurseur de cette idée a été proposé dans les années 1890 par l'influent darwinien et embryologiste August Weismann, dont on se souvient principalement à cause de son succès à répudier le concept d'héritage lamarckien. Pour fournir une explication alternative aux caractéristiques que les Lamarckiens avaient supposées nécessiter un processus d'héritage d'utilisation, il a suggéré qu'il pourrait y avoir un intrasélection processus se produisant dans ce qui équivaut à l'écosystème du corps (38). Bien que différent de ce que Weissman voulait à l'origine, le processus de sélection axonale est en effet une sorte de processus de sélection intra-organisme, bien que sa logique diffère de la sélection naturelle sur un point important : la sélection de ce type est confinée à la préservation différentielle uniquement, et non à la reproduction différentielle. À cet égard, c'est comme une génération de l'opération de sélection naturelle. Cette manière plus générale de caractériser la logique distinctive de la sélection naturelle a été caractérisée par un des premiers défenseurs de cette généralisation du darwinisme, Donald T. Campbell, avec l'expression « variation aveugle avec rétention sélective » (39).

Ceci est pertinent pour le problème de l'évolutivité. En général, plus le système est complexe, interconnecté et intégré fonctionnellement, plus il est susceptible d'être dégradé fonctionnellement par des variations structurelles. C'est pourquoi personne n'imagine que la conception informatique sera améliorée en échantillonnant au hasard des plans de circuits alternatifs. Maintenir la continuité fonctionnelle malgré les changements structurels locaux devrait exiger une réorganisation compensatoire dans l'ensemble. Ainsi, si les circuits cérébraux étaient entièrement préspécifiés génétiquement, ils seraient probablement trop fragiles pour pouvoir évoluer.

Le rôle que joue ce processus intrasélection dans l'évolution adaptative du cerveau est illustré par le cerveau du rat-taupe aveugle, Spalax (40). Cette espèce fouisseuse a des yeux vestigiaux. Dans son cerveau, le noyau genouillé latéral (le noyau visuel thalamique) est « envahi » au cours du développement par des projections auditives et somatiques du tronc cérébral qui l'emportent sur les projections clairsemées provenant des petites rétines. Les projections du thalamus vers le cortex postérieur qui, chez d'autres mammifères, serviraient au traitement visuel, à la place, serviraient les fonctions somatiques et auditives. Les manipulations expérimentales chez d'autres espèces, dans lesquelles les projections d'une modalité sensorielle sont réduites au début du développement, présentent également des effets de prise de contrôle analogues (41, 42), et les manipulations de la périphérie sensorielle démontrent également que l'intrasélection adapte la topographie fonctionnelle neuronale par rapport à l'expérience fonctionnelle. Il s'agit d'une contribution significative à l'évolutivité du cerveau et d'un mécanisme général disponible pour le recrutement de la sélection naturelle. Ces mécanismes sont presque certainement pertinents pour l'évolution du cerveau humain pour le langage, d'autant plus que le langage est un contributeur si important à l'expérience précoce.


A l'aide de la plateforme d'évolution expérimentale in silico Aevol, nous avons testé l'existence d'un cliquet de complexité en faisant évoluer les populations d'organismes numériques dans des conditions environnementales dans lesquelles des organismes simples peuvent très bien prospérer et se reproduire. Nous avons observé que dans la plupart des simulations, les organismes deviennent complexes bien que ces organismes soient beaucoup moins adaptés que les simples et n'aient aucun avantage en termes de robustesse ou d'évolutivité. Ceci exclut la sélection de l'ensemble des explications possibles de l'évolution de la complexité. Cependant, des expériences complémentaires ont montré que la sélection est néanmoins nécessaire à l'évolution de la complexité, excluant également les effets non sélectifs. En analysant le devenir à long terme d'organismes complexes, nous avons montré que les organismes complexes ne reviennent presque jamais à la simplicité malgré les avantages potentiels de la remise en forme. Au contraire, ils accumulent constamment de la complexité sur le long terme, tout en augmentant lentement leur fitness sans jamais dépasser celle des organismes simples. Ceci suggère l'existence d'un cliquet de complexité alimenté par l'épistasie négative : les mutations conduisant à des solutions simples, qui sont favorables au début de la simulation, deviennent délétères après que d'autres mutations - conduisant à des solutions complexes - aient été corrigées. Ceci suggère également que ce cliquet de complexité ne peut pas être battu par la sélection, mais qu'il peut être renversé par la robustesse en raison des contraintes qu'il impose sur la capacité de codage du génome.

Malgré des décennies d'intérêt profond de la part de différentes communautés scientifiques (y compris la vie artificielle, la génétique des populations, la biologie computationnelle et, bien sûr, la biologie évolutive), la question de l'origine évolutive de la complexité biologique est toujours controversée. Bien qu'il y ait un accord général - tempéré par la reconnaissance que la complexité a diminué dans certains organismes [4] - que la complexité biologique a globalement augmenté au cours des temps géologiques, il n'y a pas d'accord général sur le fait qu'il s'agisse ou non d'une tendance générale [19]. Mais le point le plus discuté est celui des causes ultimes de l'augmentation de la complexité. En gros, deux classes de théories sont en compétition pour expliquer cette augmentation : celles basées sur la sélection et celles invoquant le processus de variation lui-même. Selon les théories de la première classe, la complexité augmente parce que les organismes complexes sont plus susceptibles de supplanter les simples dans un environnement exigeant (mais les mécanismes précis varient selon les auteurs). Pour les théories appartenant à cette dernière classe, la complexité est enracinée dans les propriétés du processus de variation, qui est supposé être biaisé vers une augmentation de la complexité (là encore, l'origine du biais varie selon les auteurs). La vie artificielle a fourni de nombreux exemples de la première [2, 35]. Un adhérent célèbre de ce dernier est Stephen Jay Gould, qui a proposé que, puisque la complexité a une borne inférieure, elle ne peut augmenter que par un processus variationnel aléatoire (le modèle de la « marche de l'ivrogne »), d'où la tendance observée [12]. Suite à une semblable neutralité hypothèse, Soyer et Bonhoeffer ont proposé que la tendance à la complexification soit due au fait que la duplication est moins délétère que la délétion, un processus mutationnel impartial étant donc susceptible de produire des organismes de plus en plus complexes à long terme [30]. Plus récemment, McShea et Brandon ont proposé le loi évolutive à force nulle (ZFEL, [21]) déclarant que « dans tout système évolutif dans lequel il y a variation et hérédité, il y a une tendance à l'augmentation de la diversité et de la complexité, qui est toujours présente mais peut être opposée ou augmentée par la sélection naturelle, d'autres forces , ou des contraintes agissant sur la diversité ou la complexité » [21, chapitre 1, p. 4]. Selon les auteurs, le ZFEL pousse spontanément les systèmes en évolution vers une augmentation de la diversité et de la complexité même en l'absence de sélection et même lorsque le processus mutationnel est impartial ou lorsque le système considéré est loin de sa borne inférieure de complexité, ce qui en fait un puissant universel. mécanisme.

Il existe de nombreuses raisons pour lesquelles l'évolution de la complexité est controversée [22]. Deux d'entre elles sont centrales : premièrement, l'absence d'une mesure universellement acceptée de la complexité (bien qu'une manière élégante de contourner cette difficulté ait été proposée par Adami, qui considère la complexité comme équivalente à la quantité d'informations qu'un organisme intègre sur son environnement [1 ]) deuxièmement, que les organismes biologiques sont des systèmes multi-échelles qui peuvent augmenter leur complexité - ou non - à différents niveaux d'organisation ou même augmenter - ou diminuer - le nombre de niveaux d'organisation (c'est-à-dire, complexité horizontale et verticale, respectivement [20]) . Un exemple frappant est la forte perte de complexité subie par les endosymbiotes, qui est directement liée à l'émergence d'un nouveau système par l'association d'un eucaryote et d'une bactérie [4]. Même en considérant des organismes isolés, il n'y a aucune raison de supposer que les variations de complexité (ou de quantité d'informations) soient homogènes aux niveaux du génome, du transcriptome, du protéome et du phénotype : certains paradoxes bien connus tels que le C-paradoxe des valeurs [31] et le gLe paradoxe des valeurs [13] illustre le fait que la quantité d'information codée dans le génome peut ne pas être liée à la quantité d'information au niveau phénotypique. Par conséquent, alors que la plupart des modèles utilisés pour étudier l'évolution de la complexité se concentrent sur un seul niveau d'organisation, il est nécessaire de considérer l'évolution de la complexité à un niveau donné dans le contexte de la complexité nécessaire aux niveaux supérieurs. Suivant cette idée, afin d'étudier si l'augmentation de complexité est sélectionnée ou non, il faut utiliser un modèle multi-échelle et laisser les organismes évoluer dans un environnement ne nécessitant qu'un phénotype simple (excluant donc l'hypothèse de sélection). En observant si ce phénotype simple sera codé par une organisation fonctionnelle simple ou complexe, il est alors possible de distinguer les tendances passives et actives vers des structures complexes.

Ici, nous avons utilisé le modèle Aevol [5, 14, 15] pour mettre en œuvre ce programme de recherche. Aevol est une plateforme d'évolution numérique dans laquelle les organismes sont codés au niveau du génome mais avec une procédure de décodage directement inspirée de la cartographie biologique génotype-phénotype et une description abstraite des niveaux fonctionnels (protéines et phénotype). Étant donné que cette procédure de décodage comprend de nombreux degrés de liberté, Aevol permet aux différents niveaux d'organisation (généralement génome, protéome et phénotype) d'évoluer à différents degrés de complexité. Par exemple, une simple fonction phénotypique peut être codée soit par une combinaison de nombreux gènes différents, soit par un seul gène. De même, le génome peut évoluer pour être plus ou moins compact, selon la quantité de séquence non codante et selon le partage de séquences entre plusieurs gènes par, par exemple, des opérons ou des chevauchements de gènes. Ce découplage de la complexité entre les différents niveaux d'organisation rend Aevol parfaitement adapté pour étudier l'évolution de la complexité. Dans les expériences décrites ici, nous avons utilisé une version légèrement modifiée du modèle dans lequel l'environnement permet à des organismes très simples de prospérer. Nous avons ensuite étudié un très grand nombre de trajectoires évolutives pour tester si ces trajectoires présentent ou non une augmentation de la complexité. Nos résultats montrent que même si les organismes simples sont susceptibles d'avoir une meilleure fitness que les organismes complexes, la plupart des lignées montrent une augmentation à long terme de la complexité au cours de l'évolution. Cela suggère que même dans des environnements simples, il existe une cliquet de complexité qui ne peut être battu par la sélection. Nous montrons également que, contrairement à une intuition répandue, les organismes complexes ne sont pas plus évolutifs ou plus robustes que les simples et que, lorsque la sélection est supprimée, tous les organismes perdent rapidement en complexité, excluant le ZFEL de l'ensemble des candidats possibles pour expliquer la complexité. tendance observée dans nos expériences.Enfin, nos résultats montrent que si la sélection n'est pas assez puissante pour conduire l'évolution vers la simplicité, le besoin de robustesse mutationnelle est le suivant : lorsqu'un organisme complexe connaît une augmentation de son taux de mutation, sa complexité est très susceptible de diminuer, passant finalement à un simple structure.


Implémentations courantes des réseaux de neurones

L'utilisation de plus en plus populaire des modèles génératifs dans la recherche biomédicale est rendue possible et largement motivée par de vastes travaux d'ingénierie. Le développement récent de bibliothèques d'apprentissage en profondeur stables telles que Theano (preprint : Theano Development Team, 2016), TensorFlow (preprint : Abadi et al, 2016 ), PyTorch (Paszke et al, 2019 ), et d'autres ont évité à l'utilisateur final d'investir dans les travaux d'infrastructure nécessaires, tels que l'écriture de code pour les unités de traitement graphique (GPU) ou la dérivation de gradients de fonctions objectives. Une deuxième ligne cruciale de travail empirique a établi une norme pour les architectures de réseaux neuronaux et les procédures de formation telles que l'abandon (Srivastava et al, 2014 ), la normalisation par lots (Ioffe & Szegedy, 2015 ) et les non-linéarités (Glorot et al, 2011 ). Ces normes ont aidé à produire des résultats de pointe sur les tâches de vision par ordinateur et ont stabilisé la formation du modèle basé sur les réseaux neuronaux. Un troisième axe de travail se concentre sur le problème important de l'apprentissage automatique, qui est le problème de l'architecture et de la recherche d'hyperparamètres pour les réseaux de neurones (Kandasamy et al, 2018 ). Enfin, comme la quantification de l'incertitude est devenue centrale dans la recherche en apprentissage automatique, un développement important a associé des réseaux de neurones à l'inférence statistique via la vulgarisation de langages probabilistes tels que Stan (Carpenter et al, 2017 ), Pyro (Bingham et al, 2019 ), Edouard (Tran et al, 2017a ) et TensorFlow Probability (prépublication : Dillon et al, 2017 ).

Dans ce qui suit, nous donnons un bref aperçu des notions sous-jacentes à la modélisation générative et résumons plusieurs types de modèles populaires et leurs implémentations (Fig. 1). Nous procédons ensuite à une description plus approfondie des applications en biologie moléculaire. Bien que notre discussion s'étende sur un grand nombre d'études de cas, nous avons sélectionné trois exemples principaux à utiliser tout au long du manuscrit, que nous présentons ensuite.

Figure 1. Aperçu du processus de modélisation avec les DGM

Exemples phares

Pour illustrer l'utilisation des DGM pour la modélisation et l'étude des données biologiques, nous nous sommes concentrés sur trois études de cas spécifiques. Nous avons sélectionné ces cas car ils couvrent une gamme de types de données (mesures de transcriptomique unicellulaire, séquences biologiques et structures moléculaires tridimensionnelles), de types de modèles (VAE et GAN) et d'architectures de réseaux neuronaux (entièrement connectés, récurrents et convolutifs les réseaux de neurones). Ces études de cas fournissent également des implémentations open source.

Le premier modèle sélectionné est l'inférence variationnelle unicellulaire (scVI (Lopez et al, 2018a ), Fig 2A), qui vise à fournir un cadre probabiliste pour l'analyse des données de séquençage d'ARN unicellulaire. scVI prend en entrée une matrice cellules × gènes du nombre de transcrits X et utilise le cadre VAE pour déduire la distribution des données sous-jacentes. Le modèle est génératif en ce sens qu'il apprend la distribution conditionnelle p(X|z) où z est une représentation latente de faible dimension des données (cellules × k matrice, où k est généralement de quelques dizaines). La distribution conditionnelle p(X|z) décrit la probabilité de voir un nombre donné de transcrits pour chaque gène dans chaque cellule et s'appuie sur les avancées dans l'utilisation des probabilités de comptage pour les données scRNA-seq (Risso et al, 2018 ). Cette distribution peut être utilisée pour tester des hypothèses, telles que l'expression différentielle. La procédure se rapproche également de la partie postérieure p(z|X), qui fournit une représentation de chaque cellule dans l'espace latent. Ces représentations capturent les caractéristiques les plus importantes de chaque cellule et fournissent ainsi un moyen efficace de stratifier les cellules en grappes ou gradients biologiquement significatifs. Le modèle peut être utilisé pour une gamme de tâches supplémentaires, telles que le débruitage et l'imputation des données (en générant les données pleine dimension à partir de l'espace latent), ainsi que la correction de l'effet par lots.

Figure 2. Présentation des modèles sélectionnés qui seront étudiés en profondeur pour cette revue (A) scVI, (B) DeepSequence, et (C) ORGANIC

Le deuxième modèle, DeepSequence (Riesselman et al, 2018) (Fig 2B), vise à identifier les mutations délétères dans les séquences d'acides aminés ou de nucléotides avec l'hypothèse sous-jacente que l'importance fonctionnelle est associée à la conservation évolutive. DeepSequence prend en entrée des ensembles de séquences homologues X provenant d'organismes différents et correspond à une VAE pour estimer la probabilité qu'une séquence donnée se produise au cours de l'évolution. Le modèle a été conçu de manière à capturer certaines des contraintes évolutives qui ont donné lieu à la diversité au sein de chaque ensemble d'homologues. Il met particulièrement l'accent sur les interactions entre les éléments (acides aminés ou nucléotides) le long de la séquence qui sont conjointement associés à une conservation accrue et peuvent ainsi indiquer une fonctionnalité. DeepSequence a été appliqué pour prédire si des modifications de séquence (par exemple, des mutations d'un seul nucléotide) sont susceptibles d'être choisies par la sélection naturelle. De telles prédictions sont utilisées comme approximation pour prédire l'effet des mutations et comprendre lesquelles sont les plus susceptibles d'être délétères. Les estimations de DeepSequence se sont avérées plus précises que les rapports de vraisemblance des modèles de pointe par paires et indépendants du site lors de l'utilisation de données d'analyse mutationnelle profonde comme vérité terrain. De plus, un aspect de modélisation particulièrement solide de DeepSequence est de placer des priors de parcimonie de groupe sur les poids de la dernière couche du réseau neuronal génératif, qui produisent des modules d'acides aminés interprétables. Notamment, la matrice de similarité d'acides aminés obtenue est corrélée à une matrice de substitution bien connue BLOSUM62.

Notre troisième exemple principal est le GAN Objective-Reinforced for Inverse-Design Chemistry (ORGANIC (preprint : Guimaraes et al, 2018 prépublication : Sanchez-Lengeling et al, 2017 ), Fig 2C), dont le but est de concevoir de nouveaux composés chimiques avec les propriétés souhaitées. ORGANIC prend en entrée un jeu de données X de structures moléculaires (transformées en chaîne via l'encodage simplifié de la spécification d'entrée de ligne moléculaire [SMILES]) ainsi qu'un "oracle" boîte noire capable de prédire t—une propriété chimique d'intérêt (telle que la fluorescence) pour une molécule donnée. ORGANIC entraîne un GAN à faire la distinction entre les molécules qui ont la propriété et les molécules qui n'en ont pas. Notamment, il propose d'apprendre une distribution générative biaisée afin que sa sortie soit déplacée vers des régions de l'espace moléculaire qui satisfont ou maximisent certaines propriétés quantitatives chimiques. En utilisant le modèle entraîné, ORGANIC génère de nouvelles molécules avec une distribution biaisée vers des scores élevés en ce qui concerne la propriété chimique d'intérêt oui. Par exemple, il a été utilisé pour générer des molécules candidates à des médicaments, en maximisant des propriétés telles que la température de fusion, la beauté chimique, le point de fusion ou la règle de Lipinski de 5. Il a été démontré que les algorithmes BIO et similaires génèrent des molécules présentant une similitude significative avec les médicaments existants.


Entropie et sélection : la vie comme adaptation pour la réplication de l'univers

La sélection naturelle est le processus antientropique connu le plus puissant dans l'univers lorsqu'il opère au niveau biologique et peut également opérer au niveau cosmologique. L'examen de la façon dont la sélection naturelle biologique crée des adaptations peut éclairer les conséquences et l'importance de la sélection naturelle cosmologique. Un trait d'organisme est plus susceptible de constituer une adaptation s'il est caractérisé par un ordre complexe plus improbable, et un tel ordre est la marque de la sélection biologique. Si la même chose est vraie pour les traits créés par la sélection en général, alors plus quelque chose est ordonné de manière improbable (c'est-à-dire plus son entropie est faible), plus il est probable qu'il s'agisse d'une adaptation biologique ou cosmologique. Selon cette logique, la vie intelligente (en tant qu'entité connue la moins entropique) est plus susceptible que les trous noirs ou toute autre chose d'être une adaptation conçue par la sélection naturelle cosmologique. Ce point de vue contraste avec la suggestion de Smolin selon laquelle les trous noirs sont une adaptation conçue par la sélection naturelle cosmologique et que la vie est le sous-produit de la sélection des trous noirs. La sélection peut être le principal ou le seul processus antientropique ultime dans l'univers/multivers, c'est-à-dire qu'une grande partie ou la totalité de l'ordre observé peut en fin de compte être le produit ou le sous-produit de la sélection biologique et cosmologique.

« Une autre signification connexe de l'entropie est qu'elle est une mesure de la désorganisation. Les atomes d'un gaz sont désordonnés au point qu'il n'y a aucun moyen de les distinguer les uns des autres. A l'équilibre, il y a un désordre maximal, car chaque atome se déplace de manière aléatoire, avec la même énergie moyenne que n'importe quel autre atome. Un système vivant, au contraire, crée continuellement un nombre énorme de différentes sortes de molécules, dont chacune remplit généralement une fonction unique. L'entropie d'un être vivant est par conséquent beaucoup plus faible, atome pour atome, que toute autre chose au monde.
Smolin (1997), La vie du cosmos, p. 28.

1. Introduction

La deuxième loi de la thermodynamique explique la présence toujours croissante de désordre dans les systèmes physiques. Mais ce processus d'entropie croissante (le "processus entropique") ne pouvait pas se produire sans un certain ordre en premier lieu. Existe-t-il également un processus fondamental qui rend compte de la présence d'ordre dans les systèmes physiques ? Un tel processus a certainement été identifié pour les systèmes biologiques : la sélection naturelle provoque les propriétés extraordinairement ordonnées (c'est-à-dire adaptatives) des organismes. Cependant, dans quelle mesure le processus sélectif, conçu en termes cosmologiques et pas seulement biologiques, pourrait-il également rendre compte de la plupart ou même de tout l'ordre dans l'univers ?

Pour apprécier la signification possible de la sélection en tant que processus antientropique général, il est utile de considérer ce que nous savons déjà sur le fonctionnement de la sélection au niveau biologique. Une telle considération suggère non seulement que la sélection peut être la source fondamentale de l'ordre dans l'univers - essentiellement, l'opposé du processus entropique - mais aussi que la vie intelligente est plus susceptible que toute autre chose connue dans l'univers d'être une adaptation conçue par la cosmologie. sélection naturelle.

2. Adaptations conçues par la sélection naturelle biologique

Les organismes vivants sont les entités les moins entropiques (c'est-à-dire les plus complexes et les plus improbables) connues pour exister [1, 2]. La sélection naturelle biologique (SNB) (considérée comme un raccourci pour tous les types de sélection biologique, y compris la sélection naturelle proprement dite [3], la sélection sexuelle [4] et la sélection de parenté [5]), est donc le processus antientropique connu le plus puissant, car il crée des organismes. Les organismes ont une entropie extraordinairement faible parce que le BNS leur confère des adaptations qui permettent finalement la réplication génétique. La réplication est un processus complexe et hautement ordonné et nécessite des organismes eux-mêmes complexes et hautement ordonnés. C'est-à-dire qu'il nécessite des organismes composés d'une myriade d'adaptations fonctionnellement spécialisées pour résoudre divers types de problèmes adaptatifs (tels que la respiration, la vue, la digestion et l'accouplement). En permettant à l'organisme de réussir la compétition avec ses congénères pour survivre et se reproduire, les gènes qui codent ces adaptations sont finalement capables de se répliquer [5-7]. Les gènes sont les réplicateurs de ce processus et l'organisme, qui est essentiellement un ensemble d'adaptations, est leur véhicule de sélection [8]. En résumé, donc, le processus sélectif fonctionne en favorisant les gènes qui, en codant des conceptions adaptatives qui surpassent les autres conceptions, permettent le mieux leur propre réplication.

Le BNS est le seul processus connu qui peut concevoir une adaptation de l'organisme, mais tous les traits de l'organisme ne sont pas des adaptations. Les traits peuvent également être des sous-produits d'adaptations ou simplement du bruit aléatoire qui n'est pas pertinent pour la réplication et donc invisible pour la sélection. Par exemple, un cordon ombilical est une adaptation, mais le nombril qu'il laisse derrière lui est son sous-produit, et la taille et la forme précises de ce nombril ne sont que du bruit. Pour évaluer si un trait d'un organisme est une adaptation ou non, nous recherchons des preuves d'une conception spéciale [6] : dans quelle mesure cette adaptation est-elle conçue avec précision pour résoudre un problème adaptatif spécifique, comme une clé qui a été conçue avec précision pour s'adapter à une serrure particulière ? Identifier un trait comme une adaptation revient finalement à faire une évaluation de probabilité : quelle est la probabilité que ce trait soit apparu par hasard, en tant que solution étroitement adaptée à un problème adaptatif spécifique [7] ? Plus un trait est improbable à cet égard, c'est-à-dire plus son entropie est faible, plus il est probable qu'il s'agisse d'une adaptation, par opposition à un sous-produit ou à un bruit.

Par exemple, l'œil des mammifères est composé de dizaines de composants divers qui, grâce à une action coordonnée, peuvent convertir le rayonnement électromagnétique en informations utiles à l'organisme. Nous pouvons être pratiquement certains à 100 % que l'œil est une adaptation, car il serait pratiquement impossible qu'un dispositif aussi complexe sur le plan fonctionnel survienne par hasard. Ce niveau de certitude doit cependant être réduit lorsque l'on considère de nombreux autres traits, même ceux qui semblent encore très susceptibles d'être des adaptations. Par exemple, les personnes dont les ancêtres évolutifs relativement récents ont vécu pendant de nombreuses générations dans des environnements nordiques plus froids ont moins de mélanine dans la peau que celles dont les ancêtres sont originaires de régions équatoriales plus ensoleillées. Leur peau plus claire est probablement une adaptation conçue pour permettre à plus de rayonnement ultraviolet de pénétrer dans la peau et ainsi permettre au corps de produire plus de vitamine D. Par rapport à l'œil, cependant, la mélanine épidermique réduite est beaucoup moins improbablement complexe et donc beaucoup plus susceptible de survenir. par hasard (c'est-à-dire plus entropique). Même si nous sommes assez confiants que la mélanine réduite est une adaptation aux climats nordiques, son statut d'adaptation est nécessairement moins certain que celui de l'œil.

3. Adaptations conçues par la sélection naturelle cosmologique

Selon la théorie de la sélection naturelle cosmologique (SNC), nous vivons dans un multivers dans lequel les conceptions d'univers les plus représentées sont celles qui se répliquent le mieux. Comparé au BNS, le CNS est un processus beaucoup moins bien documenté et bien compris. Nous pouvons encore raisonnablement considérer, cependant, quelles seraient les conséquences si le SNC était vrai. Mon objectif ici n'est pas de présenter un cas détaillé expliquant pourquoi le SNC pourrait se produire de manière plausible, mais plutôt d'adopter une perspective adaptationniste sur la théorie du SNC qui a déjà été développée par Smolin [1, 9] et d'autres [10]. Selon cette théorie, les trous noirs sont le mécanisme par lequel les univers se répliquent, et les conceptions d'univers sont sélectionnées pour produire un plus grand nombre de trous noirs. Cependant, si nous appliquons la logique adaptationniste décrite ci-dessus au modèle de Smolin, alors la vie semble plus susceptible que les trous noirs d'être un mécanisme de réplication de l'univers.

Comme indiqué ci-dessus, nous pouvons juger dans quelle mesure un trait d'un organisme est susceptible d'être une adaptation en effectuant une évaluation de probabilité : les traits qui sont ordonnés de manière plus complexe sont moins susceptibles d'apparaître par hasard et donc plus susceptibles d'être le produit direct de la processus antientropique documenté le plus puissant, le BNS. Mener cette évaluation est souvent relativement simple lorsque l'organisme est le véhicule de la sélection, mais qu'en est-il lorsque l'univers est le véhicule ? Selon le modèle de Smolin, les trous noirs sont des adaptations conçues par CNS. D'autres théoriciens, cependant, ont proposé que la vie intelligente puisse constituer une telle adaptation, une idée connue sous le nom de « sélection naturelle cosmologique avec intelligence » ou CNS-I [11] (ou alternativement, « sélection artificielle cosmologique » [12]). Les modèles CNS-I proposent que l'intelligence fonctionne finalement (après avoir évolué vers un état suffisamment sophistiqué) pour créer de nouveaux univers qui reproduisent les lois physiques et les paramètres de son univers d'origine [11-15].

Alors qu'est-ce qui est le plus susceptible d'être une adaptation pour la réplication des univers, la vie intelligente ou les trous noirs ? Sur la base d'une logique adaptationniste, la vie semblerait être le candidat le plus prometteur des deux, simplement parce qu'elle est ordonnée de manière beaucoup plus complexe et moins susceptible de survenir par hasard. En tant que chose connue la plus improbable de l'univers, conçue par le processus antientropique connu le plus puissant, la vie semble plus susceptible que les trous noirs - ou toute autre entité connue - d'être une adaptation conçue par le SNC. Cela ne veut pas dire, cependant, que les trous noirs ne pourraient pas aussi être de telles adaptations. Tout comme les yeux et la pigmentation réduite de la peau pourraient tous deux être des adaptations sélectionnées par le SNC, la vie et les trous noirs pourraient tous deux être des adaptations sélectionnées par le SNC. Mais tout comme les yeux sont plus susceptibles d'être une adaptation qu'une réduction de mélanine, la vie est plus susceptible d'être une adaptation que les trous noirs.

4. Relation de ces idées avec d'autres théories du SNC et du SNC-I

L'objectif principal de cet article est de présenter une révision adaptationniste de la théorie du SNC [1, 9, 10] qui propose les trous noirs comme le mécanisme le plus probable de réplication de l'univers. Si nous supposons, comme le fait la théorie du SNC, que les univers se reproduisent, alors tout ce que nous savons sur le fonctionnement de la sélection (au niveau biologique) implique que la vie est plus susceptible que les trous noirs d'être une adaptation permettant cette reproduction. Cette perspective adaptationniste n'implique pas nécessairement, cependant, qu'une certaine forme de vie intelligente était responsable de la conception de notre posséder univers. Nous savons déjà, en observant le BNS, qu'un processus sélectif non intentionnel et purement mécaniste peut être un concepteur magistral de complexité fonctionnelle, aucune intelligence ou prévoyance n'est requise. Dans cette perspective, les conditions de notre univers qui semblent finement réglées pour permettre à la vie d'exister [16] pourraient être le résultat d'un processus sélectif entièrement mécaniste. Dans la mesure où la vie intelligente pourrait éventuellement évoluer vers un moyen relativement efficace de réplication de l'univers, les conceptions d'univers biofriendly devraient devenir relativement bien représentées dans un multivers. Un autre point de vue du CNS-I est que notre univers a en fait été conçu par une forme de vie intelligente dans un univers parental [14]. Bien que cette proposition doive certainement être considérée, elle semble moins parcimonieuse que le modèle mécaniste : en suggérant que les adaptations sont produites par quelque chose de plus élaboré qu'un processus sélectif mécaniste, elle fait des hypothèses qui vont au-delà de nos observations sur la façon dont les adaptations sont générées au niveau biologique. . De plus, il n'aborde pas la question de savoir comment le réglage fin émergerait en premier lieu : à moins que nous supposions une régression infinie des univers bio-amicaux produits par la vie intelligente, alors nous devons supposer que la bio-convivialité a été à un moment donné générée par un processus non intelligent. .

5. Conclusion

Les principales considérations discutées ci-dessus sont résumées dans la figure 1. Si notre observation du BNS est un guide fiable de ce que nous devrions attendre du SNC, alors il y a deux implications particulièrement intéressantes.La première est que bien que la vie intelligente et les trous noirs soient des candidats plausibles pour être des adaptations conçues par le SNC, la probabilité d'être une telle adaptation est plus élevée pour la vie que pour les trous noirs (ou tout autre objet connu dans l'univers). La seconde est que le SNC peut être la cause principale de l'ordre cosmologique, tout comme le SNB est la cause principale de l'ordre biologique. En d'autres termes, une grande partie ou la totalité de l'ordre que nous observons dans l'univers peut en fin de compte être le produit ou le sous-produit de la sélection pour la réplication aux niveaux biologique et cosmologique. Sans cet ordre, il n'y aurait pas de processus entropique (car rien ne se désintégrerait vers un état moins ordonné) et donc pas de flèche du temps [17]. En somme, le processus de sélection peut être beaucoup plus fondamental pour expliquer la nature de notre univers qu'on ne le suppose généralement.

Les conflits d'intérêts

L'auteur déclare qu'il n'y a pas de conflits d'intérêts concernant la publication de cet article.

Les références

  1. L. Smolin, La vie du cosmos, Oxford University Press, New York, NY, USA, 1997. Voir sur : MathSciNet
  2. J. Tooby, « Tomber en place : l'entropie et l'ingéniosité désespérée de la vie », dans Cela explique tout, J. Brockman, Ed., Harper Perennial, 2013. Voir sur : Google Scholar
  3. C.R. Darwin, À propos de l'origine des espèces, John Murray, 1859.
  4. C.R. Darwin, La descendance de l'homme et la sélection par rapport au sexe, John Murray, 1871.
  5. W. Hamilton, « L'évolution génétique du comportement social. JE," Journal de biologie théorique, vol. 7, non. 1, pp. 1-16, 1964. Voir sur : Site de l'éditeur | Google Scholar
  6. G.C. Williams, Adaptation et sélection naturelle : une critique de certaines pensées évolutionnistes actuelles, Princeton University Press, 1966.
  7. J. Tooby et L. Cosmides, « Les fondements psychologiques de la culture », dans L'esprit adapté : psychologie évolutionniste et génération de la culture, J. Barkow, L. Cosmides, et J. Tooby, Eds., Oxford University Press, 1992. Voir sur : Google Scholar
  8. R. Dawkins, Le gène égoïste, Oxford University Press, 1976.
  9. L. Smolin, « L'univers a-t-il évolué ? Gravité classique et quantique, vol. 9, non. 1, pp. 173–191, 1992. Voir sur : Site de l'éditeur | Google Scholar | MathSciNet
  10. A. Gardner et J. P. Conlon, « La sélection naturelle cosmologique et le but de l'univers », Complexité, vol. 18, pp. 48-56, 2013. Voir sur : Google Scholar
  11. J. M. Smart, « Evo devo univers ? Un cadre pour les spéculations sur la culture cosmique », dans Cosmos et culture : évolution culturelle dans un contexte cosmique, S. J. Dick et M. L. Lupisella, Eds., pp. 201-295, Government Printing Office, NASA SP-2009-4802, Washington, DC, USA, 2009. Voir sur : Google Scholar
  12. C. Vidal, « Le début et la fin : le sens de la vie dans une perspective cosmologique », Springer, 2014. Afficher sur : Site de l'éditeur | Google Scholar
  13. L. Crane, « Implications possibles de la théorie quantique de la gravité : une introduction au principe méduso-anthropique », Fondements de la science, vol. 15, pp. 369-373, 2010. Afficher sur : Site de l'éditeur | Google Scholar
  14. E. R. Harrison, « La sélection naturelle des univers contenant une vie intelligente », Journal de la Société royale d'astronomie, vol. 36, pp. 193-203, 1995. Voir sur : Google Scholar
  15. J. N. Gardner, « Le biocosme égoïste », Complexité, vol. 5, pp. 34–45, 2000. Voir sur : Site de l'éditeur | Google Scholar
  16. M. Rees, « Juste six chiffres : les forces profondes qui façonnent l'univers », Livres de base, 2001. Voir sur : Google Scholar | MathSciNet
  17. A. Eddington, « La nature du monde physique », MacMillan, 1928. Voir sur : Google Scholar

Droits d'auteur

Copyright © 2017 Michael E. Price. Il s'agit d'un article en libre accès distribué sous la licence Creative Commons Attribution, qui permet une utilisation, une distribution et une reproduction sans restriction sur n'importe quel support, à condition que l'œuvre originale soit correctement citée.


Épigénétique – expression génique et mécanismes de régulation

Jusqu'à très récemment, la génétique du comportement s'était principalement intéressée à l'identification des polymorphismes de l'ADN associés à la variation du comportement. L'hypothèse générale était que seuls ces facteurs génétiques comptent dans un contexte évolutif, car ils peuvent être transmis par la lignée germinale à la génération suivante, et ainsi provoquer des changements transgénérationnels. Cependant, la majorité écrasante des recherches récentes démontre clairement que la plupart des changements évolutifs, notamment en ce qui concerne le comportement, semblent être associés à des mutations régulatrices (Andersson et Georges, 2004 Hofmann, 2003). Ceux-ci n'affectent pas la structure de la protéine, mais plutôt quand et dans quelle mesure une protéine particulière est exprimée.

Il n'est donc pas surprenant que l'intérêt se soit accru pour la compréhension de la régulation des gènes en relation avec la variation phénotypique. Certaines des variations régulatrices sont clairement expliquées par des mécanismes génétiques purs, mais beaucoup sont dues à des modifications chimiques, qui ne dépendent pas de la variation de la séquence d'ADN. Comme indiqué dans l'introduction de cette revue, il s'agit du sujet de l'épigénétique (Richards, 2006).

De grandes différences phénotypiques peuvent être le résultat de différences dans les profils d'expression génique, par exemple des différences de sexe au sein d'une espèce. Bien sûr, les génomes des mâles et des femelles d'une même espèce sont extrêmement similaires, à l'exception d'un chromosome sexuel (par exemple, Y, que l'on ne trouve que chez les mammifères mâles, et W, qui se trouve chez les oiseaux femelles). Néanmoins, le profil d'expression génique à l'échelle du génome diffère grandement entre les sexes, et cela est au moins en partie le résultat de différences épigénétiques entre les sexes (Ellegren et Parsch, 2007). Chez la souris, l'expression génique sexuellement dimorphe est déjà présente avant le début de la sécrétion d'hormones embryonnaires (Dewing et al., 2003) et chez les poulets, des centaines de gènes différentiellement exprimés ont été trouvés dans le cerveau d'oiseaux femelles et mâles à la fois de la sauvagine rousse ancestrale et des oiseaux domestiqués. Leghorns blanches (Lee et al., 2009 Nätt et al., 2014). De nombreux gènes de poulet étaient associés à des réponses au stress (par exemple, la protéine de liaison à l'hormone de libération de la corticotrophine, CRHBP, et la sous-unité du récepteur GABA GABRA2), ce qui est particulièrement suggestif, car les sexes diffèrent sensiblement dans leurs réponses émotionnelles et liées au stress, telles que mesurées dans des tests standard tels que « champ ouvert » et « peur de l'humain » (Nätt et al., 2014).

De plus, entre les espèces et les populations, les profils d'expression génique varient considérablement. Par exemple, dans une comparaison des cerveaux des humains et des chimpanzés, des centaines de gènes se sont avérés être exprimés de manière différentielle (Zeng et al., 2012), et beaucoup d'entre eux étaient liés au développement neural. Dans une analyse interspécifique ambitieuse, Albert et al. (Albert et al., 2012) ont recherché des signaux d'expression génique liés au cortex cérébral communs aux mammifères domestiqués. Bien que l'étude n'ait pas révélé un signal aussi commun, il était clair que les différences dans l'expression des gènes semblaient considérablement plus importantes que les différences de séquence entre les paires d'animaux domestiques et leurs ancêtres sauvages. Cela suggère que la variation de l'expression génique peut être plus importante dans la spéciation que la variation dans les séquences codantes. De même, nous avons comparé les différences d'expression des gènes hypothalamiques entre la sauvagine rousse ancestrale et les poules pondeuses domestiquées et avons trouvé des centaines de gènes exprimés de manière différentielle (Nätt et al., 2012). Ceux-ci étaient surreprésentés dans les régions de balayage sélectif, ce qui indique qu'au cours de la domestication, il peut y avoir eu une vaste sélection de profils d'expression génique considérés comme favorables par les humains.


Résumé de l'auteur

Décrypter les fonctions des différentes protéines d'un organisme constitue un premier pas vers la compréhension de sa biologie. Parce qu'ils fournissent des indices solides concernant les fonctions des protéines, les domaines occupent une position clé parmi les annotations pertinentes qui peuvent être attribuées à une protéine. Les domaines protéiques sont des motifs séquentiels qui sont conservés tout au long de l'évolution et se trouvent dans différentes protéines et dans différentes combinaisons. Une approche courante pour identifier les domaines d'une protéine consiste à effectuer des comparaisons séquence-séquence avec des outils d'alignement locaux tels que BLAST. Cependant ces approches manquent parfois plusieurs hits, notamment pour les espèces phylogénétiquement éloignées des organismes de référence. Nous proposons ici une approche pour augmenter la sensibilité des comparaisons de séquences par paires. Cette approche utilise le fait que les domaines protéiques ont tendance à apparaître avec un nombre limité d'autres domaines sur la même protéine (la propriété de cooccurrence de domaine). Au P. falciparum, notre approche permet d'identifier 2240 nouveaux domaines pour lesquels, dans la plupart des cas, aucun domaine de la base de données Pfam n'a pu être lié.

Citation: Menichelli C, Gascuel O, Bréhélin L (2018) Amélioration de la comparaison par paires de séquences protéiques avec co-occurrence de domaine. PLoS Comput Biol 14(1) : e1005889. https://doi.org/10.1371/journal.pcbi.1005889

Éditeur: Scott Markel, Dassault Systèmes BIOVIA, ÉTATS-UNIS

A reçu: 28 avril 2017 Accepté: 23 novembre 2017 Publié : 2 janvier 2018

Droits d'auteur: © 2018 Menichelli et al. Il s'agit d'un article en libre accès distribué sous les termes de la Creative Commons Attribution License, qui permet une utilisation, une distribution et une reproduction sans restriction sur n'importe quel support, à condition que l'auteur original et la source soient crédités.

Disponibilité des données: Les logiciels mettant en œuvre la démarche proposée et les Données complémentaires sont disponibles sur : https://gite.lirmm.fr/menichelli/pairwise-comparison-with-cooccurrence.

Le financement: Ce travail a été soutenu par l'Agence Nationale de la Recherche (ANR-JCJC-2010) et l'Institut de Biologie Computationnelle (Programme Investissement d'Avenir). Les bailleurs de fonds n'ont joué aucun rôle dans la conception de l'étude, la collecte et l'analyse des données, la décision de publier ou la préparation du manuscrit.

Intérêts concurrents : Les auteurs ont déclaré qu'ils n'existaient pas de conflit d'intérêts.

C'est un Biologie computationnelle PLOS Document de méthodes.


Biologie des systèmes complexes

La théorie des systèmes complexes s'intéresse à l'identification et à la caractérisation des éléments de conception communs qui sont observés dans divers systèmes complexes naturels, technologiques et sociaux. La biologie des systèmes, une approche plus holistique pour étudier les molécules et les cellules en biologie, a progressé rapidement au cours des deux dernières décennies. Cependant, peu d'appréciation a été accordée à la réalisation que la cellule humaine est un système complexe exemplaire. Ici, je décris les principes de conception généraux identifiés dans de nombreux systèmes complexes, puis je décris la cellule humaine comme un système complexe prototypique. Considérer les concepts de la théorie des systèmes complexes en biologie des systèmes peut éclairer notre compréhension globale de la physiologie cellulaire normale et des altérations qui conduisent à la maladie humaine.

1. La science de la théorie des systèmes complexes

La science et la technologie nous permettent de comprendre notre environnement ainsi que de le manipuler et de créer de nouveaux environnements et de nouveaux systèmes. Cela a conduit les humains à émerger de la nature et, récemment, à créer de nouveaux mondes complexes qui ressemblent beaucoup aux systèmes naturels [1]. Les systèmes créés par l'homme suivent souvent les mêmes principes de conception qui régissent les systèmes naturels. Le plus important de ces principes de conception est l'évolution par sélection naturelle [2]. Cependant, les systèmes créés par l'homme ne sont pas exactement les mêmes que ceux créés par la nature. Nous gagnons une capacité croissante à créer de nouveaux environnements complexes et de nouvelles machines aussi performantes, voire meilleures, que les organismes naturels [3]. Les systèmes complexes créés par l'homme, tels que les marchés boursiers ou les réseaux sociaux en ligne multi-utilisateurs, et les technologies qui peuvent être utilisées pour collecter et traiter des quantités croissantes de données nous offrent la possibilité de mieux observer et comprendre les systèmes complexes, naturels ou artificiels. . On peut de plus en plus mesurer l'activité des variables qui constituent ces systèmes. Cela donne un meilleur aperçu de la quantité et de la connectivité de la plupart des variables qui contrôlent un système complexe. Lorsque toutes ces variables fonctionnent ensemble, elles forment un système qui nous apparaît comme une unité vivante.

Nous commençons à réaliser qu'en général, les systèmes complexes, artificiels ou naturels, partagent de nombreux concepts de modèles de conception universels et principes de conception qui réapparaissent dans divers systèmes apparemment sans rapport [4,5]. Ces modèles de conception sont les éléments essentiels pour construire des systèmes complexes réussis qui peuvent fonctionner, rivaliser, survivre, se reproduire et évoluer pendant de longues périodes à travers plusieurs générations vers une meilleure forme physique et une croissance globale. La science de la théorie des systèmes complexes tente de comprendre ces principes de conception récurrents émergents qui réapparaissent dans différents systèmes et environnements complexes naturels et artificiels [6]. L'objectif de la science des systèmes complexes est de définir plus précisément ces propriétés vers une meilleure compréhension des systèmes complexes dans leur ensemble, au-delà de la compréhension d'un système spécifique ou d'un concept de conception spécifique. Mieux comprendre ces principes universels nous permettra de mieux digérer les changements rapides qui se produisent autour de nous en raison de l'évolution technologique et sociale [3]. Pour étudier et comprendre des systèmes complexes, lorsque cela est possible, les chercheurs mènent des expériences multivariées, en enregistrant les mesures des variables du système dans des conditions relativement contrôlées pour suivre la dynamique du système sous différentes perturbations au fil du temps. Ces mesures et enregistrements sont utilisés pour construire des modèles. Ces modèles sont nécessaires pour générer des hypothèses cohérentes avec les données. Les modèles tentent de représenter le système à un niveau d'abstraction à gros grains, un squelette du système complexe réel à l'étude. Le processus de modélisation vise à capturer l'essence de la complexité, en faisant abstraction du système réel dans une taille gérable qui est cognitivement, mathématiquement et théoriquement explicable. Les modèles qui simulent des systèmes complexes du monde réel sont conçus pour capturer la dynamique et l'architecture d'un système afin de prédire le comportement futur du système et d'expliquer son comportement passé. De tels modèles nous aident à mieux comprendre et potentiellement à corriger les défaillances du système, telles que celles qui se produisent dans les processus pathologiques à l'intérieur des cellules humaines. Le dicton célèbre sur les modèles est qu'ils sont tous faux, mais certains sont utiles [7], et en tant que tels, les modèles jouent un rôle important dans la compréhension et l'apprivoisement des systèmes complexes. De ces modèles, des règles théoriques pertinentes peuvent être extraites.

Cependant, alors que nous souhaitons avoir des modèles dynamiques qui expliqueraient le comportement de systèmes complexes, en réalité, ces modèles sont souvent trop difficiles à construire, et lorsqu'ils sont construits, ces modèles souffrent de nombreuses lacunes principalement en raison d'informations manquantes. Le problème est à la fois le manque de données et le déluge de données. Pour que les modèles dynamiques soient réalistes, ils doivent avoir des conditions initiales précises, une causalité exacte entre les variables du système [8] et une cinétique définie. De telles données ne sont souvent pas facilement observables. Par conséquent, les modèles dynamiques de systèmes complexes souffrent du problème des paramètres libres où de nombreux modèles peuvent s'adapter aux mêmes données observées [9]. L'autre problème avec les modèles dynamiques de systèmes complexes est la non-linéarité caractéristique des systèmes complexes [10]. En raison des relations complexes entre les variables dans les systèmes complexes, la dynamique du système devient rapidement non linéaire et complexe, ce que les mathématiques actuelles ne peuvent expliquer correctement. Les méthodes statistiques telles que l'analyse de corrélation, d'autre part, sont des approches plus simples qui sont aujourd'hui beaucoup plus pratiques [11]. Bien que les approches basées sur la corrélation ne fournissent pas une explication complète du comportement du système au fil du temps, car il y a tellement de données et parce que les données sont manquantes et inexactes, trouver des corrélations entre les variables du système fournit de nouvelles connaissances immédiates.

En biologie, les technologies émergentes telles que le séquençage profond de l'ADN et de l'ARN [12], ou la protéomique par spectrométrie de masse [13] et la métabolomique [14], permettent d'avoir un aperçu de l'état dynamique de nombreux composants constituant les systèmes complexes au sein des cellules humaines. Ces biotechnologies multivariées émergentes, bien qu'imprécises et bruyantes, contribuent à accélérer la découverte du fonctionnement interne des cellules dans leur intégralité car elles peuvent mesurer le niveau de milliers d'espèces moléculaires à la fois, en une seule expérience. Au fur et à mesure que de plus en plus de connaissances sont accumulées sur des systèmes complexes, tels que la cellule humaine, ces connaissances peuvent être réintroduites dans les modèles mathématiques ou informatiques pour les affiner, les rendant plus précis. Ces informations supplémentaires ajoutent plus de puissance et de valeur à la capacité des modèles à capturer la fonctionnalité des systèmes plus en détail, et cela permet de faire de meilleures prédictions sur la façon dont les composants et les processus du système se réunissent pour permettre des comportements cellulaires tels que les réponses aux stimuli qui induisent prolifération cellulaire, croissance cellulaire, différenciation/spécialisation cellulaire ou mort cellulaire programmée. L'objectif est de combler les pièces manquantes du puzzle du modèle pour une meilleure compréhension de systèmes complexes spécifiques tels que la cellule naturelle. Avec l'accumulation de plus de données, la méthode scientifique se transforme pour s'appuyer de plus en plus sur l'organisation, l'intégration, la visualisation et l'utilisation de connaissances préalables extraites de grands ensembles de données composés de mesures enregistrées à partir de variables réelles de systèmes complexes. Ces connaissances de base organisées par ordinateur sont utilisées pour analyser les données nouvellement acquises [15]. À mesure que la technologie progresse, les données enregistrées sur l'histoire d'un système complexe s'accumulent plus rapidement que notre capacité actuelle à stocker et à analyser ces données pour une compréhension utile ou, en d'autres termes, pour une extraction optimale des connaissances. Alors que le coût des périphériques de stockage diminue rapidement et que les dispositifs permettant d'enregistrer presque tout ce qui nous entoure font rapidement leur apparition, nous nous retrouvons entourés d'un océan de données [11]. De telles données offrent une excellente occasion de conquérir les secrets de la complexité mais nous submergent également de bits et d'octets de données sans signification claire. Nous nous retrouvons souvent à n'utiliser qu'une petite fraction des données mesurées, ne faisant qu'effleurer la surface d'une mine pleine de trésors.

2. Modèles émergents dans les systèmes complexes

Différents domaines de la recherche scientifique tels que l'informatique, la sociologie, les mathématiques, la physique, l'économie et la biologie prennent de plus en plus conscience de l'importance de la théorie des systèmes complexes, car les mêmes modèles et concepts de conception émergent dans ces différents domaines scientifiques. Les modèles qui capturent la structure et la dynamique des systèmes complexes sont généralement expliqués par quelques principes directeurs tels que la survie du plus fort [2], riche-devient plus riche [16] et duplication-divergence [17] alors qu'en fait, il y a plus de forces tous agissent de concert pour façonner la structure et le comportement de nombreux types différents de systèmes complexes. En combinaison, ces forces peuvent fonctionner en parallèle, et parfois se contrecarrer, pour produire le comportement final du système qui se manifeste par des changements structurels dynamiques et fonctionnels continus. Des systèmes complexes différents ont des ensembles de forces légèrement différents, des ingrédients différents qui composent leur tout.La bonne combinaison de concepts et de forces de conception, si elle est bien comprise, peut conduire à une meilleure capacité à créer, contrôler, prévoir et réparer les systèmes complexes qui nous entourent, y compris nous-mêmes et notre société, ainsi que nos environnements naturel, économique et technologique. La cellule humaine, les organismes multicellulaires, les systèmes économiques, les systèmes d'ingénierie complexes et le Web sont tous des systèmes complexes en évolution existant dans des environnements complexes et en constante évolution dynamique. Ces systèmes partagent des modèles de conception émergents similaires, le modèle pour générer un système complexe. Certains de ces modèles peuvent être démêlés à l'aide de la modélisation.

3. Environnements complexes versus agents complexes

Lorsque vous utilisez le terme généralisé systèmes complexes et en discutant des concepts de conception de systèmes complexes, nous pouvons distinguer deux types principaux : les environnements complexes et les agents complexes. Les agents complexes sont ces systèmes qui ont des limites clairement définies, une frontière physique qui enveloppe le système. Les agents complexes ont généralement une ou plusieurs unités centrales de traitement, une horloge, ainsi que des mécanismes pour obtenir et utiliser efficacement l'énergie. Les agents comprennent généralement des capteurs et des actionneurs. Ces types de systèmes complexes interagissent avec leur environnement par le biais de capteurs et de leurs actionneurs, et peuvent généralement se déplacer, croître, s'auto-réparer et s'auto-reproduire. Souvent, ces agents sont conscients de leur existence. Quelques exemples d'agents complexes sont nous, nos cellules, les arbres, les oiseaux, les poissons, les vers, les voitures, les avions et certains robots (figure 1). Les agents complexes existent dans des environnements complexes, ou au sein d'autres agents complexes englobants plus larges. D'autre part, les environnements complexes ont des limites moins définies. Leur gouvernance est également généralement mal définie. Ces systèmes complexes n'ont généralement pas d'unité centrale de traitement, ils n'ont pas un seul cerveau central. Les agents dans des environnements aussi complexes sont parfois tous similaires, ou du même type, ou du moins ont des propriétés de base en commun. Les agents dans des environnements complexes agissent en tant qu'individus mais donnent lieu à toute la dynamique du système. Des exemples d'environnements complexes sont les écosystèmes naturels et artificiels tels que les volées d'oiseaux, les villes, les systèmes de circulation, les ruches, les pays ou les réseaux sociaux (figure 1).

Figure 1. Exemples d'environnements complexes : volée d'oiseaux, ruche, réseaux sociaux, villes et états. Exemples d'agents complexes : avion, ver, voiture, poisson, cellule, oiseau, arbre, robot. Les environnements complexes tendent progressivement à évoluer vers un agent complexe. Une fois que de nombreuses copies d'un agent complexe existent, ces copies peuvent remplir un nouvel environnement complexe. (Version en ligne en couleur.)

La distinction entre agents complexes et environnements complexes est floue car certaines propriétés typiques des environnements complexes sont présentes dans certains agents complexes et vice versa. Les environnements complexes sont généralement peuplés d'agents complexes. Intuitivement, les environnements complexes se développent plus rapidement à mesure qu'ils deviennent plus complexes et diversifiés. D'autre part, les agents complexes deviennent moins flexibles à mesure qu'ils augmentent en complexité, donc, en principe, l'évolution ralentit à mesure que la complexité augmente pour les agents complexes. Comme il existe une ligne floue qui sépare les agents complexes des environnements complexes, il est plausible que ces systèmes complexes ne soient qu'à différents stades de leur évolution. Les environnements complexes sont au stade jeune et nouvellement créé d'un système complexe. Au fil du temps, ces environnements complexes commenceront à se figer, accumulant les propriétés des agents complexes un à un à mesure qu'ils évoluent pour devenir un agent. Cependant, une fois que le système est complètement un agent et qu'il existe de nombreuses copies presque exactes de ces agents dans l'environnement, ces nombreux agents en interaction vont peupler des environnements complexes (figure 1, flèches). Cette vue abstraite peut être étayée par notre compréhension de base de la façon dont les cellules naturelles biologiques ont vu le jour, ou comment les organismes multicellulaires ont évolué à partir d'organismes unicellulaires. Au début, le système était un environnement complexe où des composants cellulaires tels que l'ARN se mélangeaient dans la soupe primordiale [18]. Une fois que l'organisation a évolué, des cellules se sont formées, entourées de leurs membranes. Ensuite, les cellules membraneuses ont évolué pour avoir des capteurs et d'autres composants qui les ont fait devenir des agents prototypiques. Une fois que les agents cellulaires ont existé et ont proliféré, ils ont commencé à former des organismes multicellulaires. Les premiers organismes multicellulaires ont été créés par le même type de cellules, mais ensuite des types de cellules ont émergé où différentes cellules assumaient différents rôles spécialisés. Au fur et à mesure que les cellules sont devenues de plus en plus spécialisées, elles sont également devenues plus dépendantes les unes des autres, produisant finalement un nouveau type d'agent complexe, c'est-à-dire un organisme multicellulaire. Par conséquent, les environnements complexes peuvent n'être qu'à un stade précoce du processus d'évolution du système complexe, en passe de devenir progressivement un agent complexe une fois que de nombreux agents complexes du même type existent dans l'environnement, ils peuvent former une nouvelle couche de complexité. qui peut servir de base à la couche suivante.

4. Évolution naturelle versus évolution technologique

Des systèmes complexes ont émergé par évolution naturelle ou artificielle. Cela a produit des parallèles entre les systèmes naturels et technologiques malgré leurs différences. Alors que l'évolution naturelle évolue depuis des milliards d'années, l'évolution technologique et économique créée par l'homme n'a eu un impact significatif sur la Terre qu'au cours des derniers milliers d'années [1]. Par conséquent, les taux d'évolution sont très différents lorsque l'on compare les deux types de systèmes complexes : artificiels et naturels [3]. L'évolution naturelle doit attendre que des mutations aléatoires favorables dans l'ADN d'un organisme se produisent sur plusieurs générations, alors que dans l'évolution technologique, de nouvelles idées peuvent devenir de nouveaux produits du jour au lendemain. Il semble que l'évolution technologique s'accélère constamment, elle se déplace à des rythmes différents à travers la planète, mais globalement, depuis la révolution industrielle, le taux de complexité des systèmes artificiels semble s'accélérer de manière générale. Différents taux d'évolution à travers la planète sont également vrais pour l'évolution naturelle. Dans la forêt tropicale, de nombreuses espèces peuvent émerger rapidement car les conditions de cet environnement sont abondantes et favorables à la vie. Il y a de l'eau douce, du soleil et de la pluie, et les températures sont idéales pour que la vie biologique naturelle évolue et prospère. D'autres zones de la planète comme les déserts arides chauds ou froids ne favorisent pas une évolution naturelle rapide, et l'émergence de la complexité y est plus lente. Les conditions permissives pour la croissance sont évidentes pour les systèmes naturels, mais moins définies pour l'évolution technologique. L'évolution technologique évolue à un rythme beaucoup plus rapide dans les grandes villes ou sur le Web, où les interactions entre les personnes et la demande de nouveaux produits sont plus importantes que dans les régions moins habitables du globe. Cependant, il existe des forces qui équilibrent ces tendances. La diffusion géographique des innovations [19] et la propagation de la complexité font que la complexité technologique et naturelle s'étend à des endroits reculés de la Terre. La complexité technologique peuple de plus en plus l'air, la mer et l'espace extra-atmosphérique. La mer est pleine de vie naturelle, mais elle n'est pas favorable à la vie humaine et à l'évolution technologique. L'espace, en revanche, pourrait s'avérer être le meilleur endroit pour les robots et les ordinateurs, car il est isolé de la chaleur, de la poussière et des agents bactériens nocifs [20].

5. Types de systèmes versus leurs instances

Un instantané d'un système complexe à un moment donné capture l'état des variables du système tel qu'il est à ce moment-là. Un tel état figé dans le temps d'un système est la manifestation de l'instanciation de variables de différents types. La distinction entre les types de variables et l'instanciation de variables, ou les types de systèmes complexes par rapport aux systèmes complexes réels, est essentielle pour introduire plus de clarté. Une instance d'une variable qui fait partie d'un système complexe, ou l'état d'un système complexe entier, suit généralement le cycle né-vivre-et-mourir. D'autre part, la variable, ou le système complexe taper, est une représentation abstraite du type de système variable ou complexe dont il s'agit. Ce n'est pas une entité physique réelle mais un modèle. Les systèmes complexes et les instances variables, ainsi que leurs types, peuvent évoluer. Cependant, les instances réelles de variables, ou des systèmes complexes entiers, n'évoluent que pendant le temps où elles sont présentes ou vivantes, alors que les modèles peuvent évoluer indéfiniment. Vous êtes une instance du système complexe qui est un modèle humain. Le modèle d'une variable, ou le type d'un système complexe, la généralisation abstraite des genres de la chose réelle, peut évoluer sans avoir besoin d'être limité à l'existence réelle. Le modèle n'a pas de limites temporelles. Dans les langages de programmation informatique, la distinction entre les variables et les types de variables est claire. Les variables peuvent être de différents types. Les variables sont d'abord déclarées pour devenir instanciées. Les variables reçoivent ensuite les valeurs qui correspondent à leur type pendant l'exécution du programme. De telles valeurs peuvent changer pendant l'exécution du programme, et les variables contenant les valeurs vivent dans le programme pendant une courte période lorsque le programme s'exécute. De même, les cellules ont un ADN qui sert de matrice pour produire des instances d'ARN et de molécules de protéines. De telles analogies peuvent aider à considérer la distinction entre une instance et un type, ou un modèle, d'un système complexe ou d'une variable au sein d'un système complexe.

6. Résumé des principes de conception avec les relations initiales

La théorie de la complexité se concentre souvent sur quelques-uns des principes de conception des systèmes complexes, la plupart du temps appliqués à un seul système complexe du monde réel : ironiquement, toujours le réductionnisme. Le point de vue réductionniste propose que les systèmes complexes soient constitués de parties, et la compréhension de ces parties peut conduire à la compréhension de l'ensemble du système [21]. Ce point de vue a dominé la science dans le passé, mais il est maintenant admis que de nouvelles méthodes sont nécessaires pour mieux comprendre la complexité, comment les parties s'assemblent pour donner naissance à quelque chose de plus grand que les parties [22,23]. Pour parvenir à une telle compréhension, il peut être utile d'examiner comment les modèles de conception de systèmes complexes sont liés. Pour développer l'intuition sur cette idée, une première collection de principes de conception de systèmes complexes est mentionnée ci-dessous avec une brève description de chaque principe. L'étape suivante consiste à essayer d'identifier comment ces principes sont liés. L'espoir est que les relations entre ces principes de conception deviendront immédiatement et intuitivement évidentes. Une chose à garder à l'esprit est que les définitions de bon nombre de ces concepts abstraits peuvent ne pas être précises, c'est un problème car une définition peut signifier différentes choses pour différentes personnes. Ces définitions peuvent certainement être améliorées, mais les rendre parfaites est un défi et peut nécessiter une représentation mathématique formelle. Les descriptions des principes de conception présentées ci-dessous sont abstraites mais réelles. Essayez donc de ne pas vous soucier un instant des formulations spécifiques des définitions mais de l'essence de leur sens. Certains de ces principes de conception sont observés dans les systèmes complexes en général, couvrant à la fois les systèmes naturels et technologiques, avec quelques relations suggérées entre les concepts.

La survie du plus apte est un modèle de conception central qui façonne des systèmes complexes [2]. Ce concept est le résultat d'une compétition. La concurrence n'est souvent pas équitable, où les riches et en forme deviennent généralement plus riches ou plus en forme plus rapidement que les autres [16]. Les riches s'enrichissent est un processus de croissance où les riches, ceux qui ont de nombreuses relations, centrales, essentielles et en forme, grandissent plus vite que les pauvres, seuls, inaptes, faibles et moins connectés. Les agents complexes dans des environnements complexes se développent également généralement par duplication-divergence [17]. La duplication-divergence est un principe de conception biologique connu de l'évolution naturelle qui est également courant dans l'évolution technologique, l'économie ou sur le Web. Par exemple, les modèles de voitures à succès, les sites Web et les logiciels en général évoluent par duplication-divergence. Par conséquent, l'agent, l'organisme ou le produit complexe, nouveau et adapté, peut devenir un attracteur, en tirant plus de connexions et de copies qu'à lui [10]. Parfois, des agents complexes innovants et adaptés émergent de la fusion de deux agents existants, pour former un nouvel agent, produit ou organisme innovant et plus compétitif. Une fois réussis, les agents innovants se répliquent et se diversifient rapidement. L'innovation joue donc un rôle important dans l'évolution continue d'un système complexe. Les innovations ne peuvent se réaliser que sur la base d'innovations antérieures déjà existantes, solidifiées et réussies [19]. Par conséquent, comme mentionné ci-dessus, les systèmes complexes sont organisés en couches où chaque couche établit une base solide pour que la couche d'ordre suivant puisse évoluer.

Un autre principe essentiel et connexe est le transfert d'informations. L'information circule constamment, généralement compressée, décompressée et traduite. Les émetteurs diffusent des informations, puis les capteurs les interceptent. Les agents des systèmes complexes ont non seulement la capacité d'écouter passivement et de s'adapter à leur environnement, mais peuvent également communiquer avec l'environnement et modifier l'environnement pour répondre à leurs besoins. Des capteurs transmettent des informations sur l'état de l'environnement aux centres de traitement centraux internes. Avant que l'information ne soit transmise à ces centres, le signal peut être amplifié et filtré. Dans les centres de traitement, les classificateurs utilisent intelligemment les informations, tirant des enseignements des expériences pour prendre des décisions optimales concernant la réponse et l'adaptation à l'état de l'environnement la prochaine fois qu'ils sont exposés à un état déjà vécu. Par conséquent, ces classificateurs utilisent la mémoire pour déterminer la réponse future appropriée de l'agent. Souvent, cette réponse consiste simplement à activer ou désactiver un interrupteur. Des capteurs et d'autres composants qui transmettent des informations mettent en œuvre de tels commutateurs ainsi que des filtres et des amplificateurs pour convertir les informations bruyantes de l'environnement en messages précieux et utiles, souvent par le biais du processus de discrétisation ou de numérisation. L'étiquetage, la symbolisation, le regroupement et la classification des signaux sont des moyens d'abstraire de nombreux objets et observations similaires liés à des formes de l'environnement en représentations abstraites simplifiées. Les groupes et les classes sont étiquetés, convertis de leur réalité physique en symboles codés en messages. Ces symboles permettent à l'unité centrale de traiter plus facilement les informations de l'environnement, et de calculer la réponse appropriée, ce qui implique de transmettre des informations à d'autres agents complexes. Pour calculer la bonne réponse, les centres de traitement internes utilisent l'apprentissage, la mémoire et l'adaptation. La capacité de s'adapter à de nouveaux environnements est essentielle pour la survie de l'agent complexe vivant dans l'environnement complexe. La robustesse aux fluctuations et aux changements de l'environnement est requise pour la condition physique et la viabilité globales [24]. Cependant, un équilibre entre la rigidité, la robustesse et la tolérance au changement par rapport à la flexibilité au changement est nécessaire pour fournir le niveau de plasticité nécessaire à une bonne adaptation [25]. Lorsque l'apprentissage est réussi, les réponses sont généralement automatisées. L'automatisation est également nécessaire pour une production efficace. Des mécanismes efficaces et sophistiqués sont en place pour fabriquer de nombreuses répliques (presque exactes) d'agents complexes et de leurs parties. Cela permet au cycle naissance-vie-mort de se poursuivre et au type de système complexe de proliférer continuellement. Le concept naissance-vie-mort est lié à l'observation que les systèmes complexes et leurs parties sont dynamiquement remplacés par de nouvelles parties, tandis que les modèles globaux de l'ensemble du système complexe et de l'écosystème demeurent. Par exemple, les protéines d'une cellule se retournent continuellement, les molécules d'eau dans une rivière ne sont pas les mêmes mais la rivière reste à débit constant, les voitures sur une autoroute continuent de passer, les cellules sanguines traversent les vaisseaux sanguins et les gens font des allers-retours du travail dans et hors d'une grande ville, ce ne sont que quelques exemples. Dans certains de ces cas, ces agents complexes, ou leurs parties, circulent. C'est le cas des cellules sanguines, ou des personnes qui se rendent au travail, tandis que dans d'autres cas, les agents complexes qui s'écoulent, ou leurs parties, sont complètement remplacés à chaque fois. Par conséquent, les systèmes complexes ont des systèmes de transport élaborés et efficaces qui permettent le transfert de ressources et d'agents vers des emplacements éloignés rapidement et efficacement. De tels systèmes de transport sont généralement organisés dans une structure hiérarchique arborescente, où les feuilles de l'arbre, les emplacements terminaux sur le système arborescent, ont souvent une adresse unique codée dans une chaîne de symboles. La structure hiérarchique des systèmes de transport est courante dans les systèmes complexes. Pour se déplacer, la locomotion est nécessaire. La locomotion est la capacité des agents complexes à se déplacer dans leur environnement complexe. Les systèmes économiques reposent sur des avions, des navires et des camions pour transférer les marchandises et les travailleurs d'une adresse de terminal unique à une autre adresse. Les plantes botaniques n'ont pas la capacité de se déplacer, et ce handicap est compensé par une incroyable capacité à utiliser l'énergie solaire, la capacité d'extraire les nutriments du sol et la capacité de polliniser et de se reproduire efficacement sans avoir besoin de voyager. Les plantes et autres systèmes naturels complexes ont des graines qui contiennent des informations compressées qui peuvent être utilisées pour créer des copies complètement nouvelles des mêmes agents complexes. Ces graines ont souvent des mécanismes pour voyager et se diffuser pour atteindre leur cible pour une fertilisation optimale. Ils sont générés en de nombreux exemplaires où chaque exemplaire est légèrement différent, et où seuls quelques-uns seront sélectionnés pour polliniser la prochaine génération.

Des barrières notables sont présentes pour protéger les agents complexes des autres agents et de l'extérieur. Ces conteneurs, ou modules, cachent les éléments internes des éléments externes exposés. Les externes ont une interface, facilitant la capacité de communiquer avec l'environnement et d'autres systèmes, en utilisant des protocoles, des symboles et des drapeaux standard. Le principe de conception plug-and-play qui permet la réutilisation et la généralité est lié à cela. Ce principe permet à des systèmes complexes de travailler ensemble pour former des systèmes d'ordre supérieur. Cette modularité crée des hiérarchies. Les systèmes complexes en interaction ont la capacité de basculer entre le comportement individuel et le comportement une fois dans un groupe. Lorsqu'ils sont dans un pack, les systèmes complexes forment souvent des formes géométriques distinctes. Les formes dans les systèmes complexes sont généralement en mosaïque, formant des mosaïques élaborées [26]. Les systèmes complexes polymorphes dans un pack se comportent de manière aléatoire en parallèle mais affichent souvent une synchronicité étonnante. La synchronicité peut être obtenue grâce à la gouvernance, par exemple, par un chef d'orchestre qui signale à un orchestre, mais souvent la synchronicité ne nécessite pas de gouvernance dans des systèmes complexes. L'aléatoire et le bruit sont nécessaires pour un tel comportement émergent. Le bruit est également requis pour d'autres aspects du comportement dynamique qui prend en charge la complexité et l'évolution. Le bruit est un mécanisme nécessaire pour surmonter le fait d'être bloqué dans un état minimum évolutif. L'aléatoire et le bruit entraînent une recherche constante d'homéostasie, mais les systèmes complexes ne s'installent jamais à un état stable pour toujours [27]. Les systèmes complexes se développent continuellement, s'améliorent en forme physique et augmentent en complexité parce que leur environnement change constamment dans cette direction [28]. Les transitions de phase se produisent dans de courtes périodes de temps où un système, étant dans un état plutôt stable, subit un petit changement qui induit de nombreux changements, transformant le système en un autre nouvel état quasi-stable [10].Trouver un état de forme amélioré est un principe de conception directement lié à l'efficacité et à l'utilisation de l'énergie.

Alors que la plupart des processus dans les systèmes complexes utilisent de l'énergie, et où les agents complexes sont en compétition pour les ressources énergétiques, l'utilisation de l'énergie par les systèmes est plus concernée par la forme physique globale et moins par la conservation de l'énergie et l'efficacité énergétique [29]. C'est l'un des nombreux concepts qui différencient les systèmes complexes des systèmes typiques étudiés en physique. Cependant, la conservation et l'efficacité énergétiques peuvent aider les systèmes complexes à être plus compétitifs. Il est intéressant de noter que les organismes morts deviennent souvent la ressource énergétique d'autres organismes, tandis que la matière organique la plus décomposée, le pétrole brut, sert de principale source d'énergie pour la phase initiale de l'évolution technologique que nous connaissons aujourd'hui. La plupart des systèmes complexes produisent généralement des déchets dans des écosystèmes équilibrés, les déchets d'un système complexe étant une ressource pour un autre. Cependant, les systèmes complexes technologiques fabriqués par l'homme produisent des déchets qui ne sont pas bien recyclés. Des boucles de rétroaction sont liées à cela, qui sont des structures dynamiques importantes qui mettent en mouvement la création de systèmes complexes. La soupe métabolique primordiale était constituée d'enzymes simples formant des boucles de rétroaction concurrentes [18]. La concurrence implique d'agir sur les marchés, où le commerce fait de deux systèmes complexes ou plus des gagnants. Le commerce réussi exige la diversité des produits et la spécialisation des services. Les gagnants dans le commerce sont souvent les innovateurs ou les meilleurs auditeurs de l'innovation. Le commerce aboutit à une coopération, qui peut évoluer vers une symbiose : la codépendance de deux systèmes complexes distincts l'un de l'autre afin de coexister. La symbiose unidirectionnelle est le parasitisme. Les agents complexes parasitaires utilisent le succès de leurs hôtes pour leurs propres besoins de survie. Les agents complexes qui réussissent doivent apprendre à s'auto-réparer et à combattre les parasites, tandis que les parasites s'engagent dans un jeu de stratégies d'évasion créatives. Les parasites tuent parfois leurs hôtes, mais pas avant de se répliquer et de faire sauter leurs copies vers d'autres hôtes, afin qu'ils puissent se propager.

Tous les concepts énumérés ci-dessus présentent brièvement certains des principes de conception des systèmes complexes avec quelques relations suggérées entre eux. Mais des explications plus détaillées sont nécessaires pour décrire tous ces concepts avec moins d'ambiguïté. De plus, des exemples spécifiques sont nécessaires pour illustrer comment ces concepts prennent forme dans des systèmes naturels et technologiques du monde réel. De telles descriptions détaillées dépassent le cadre de cette revue ici, cependant, nous sommes préoccupés par la manière dont certaines de ces observations générales sur les systèmes complexes s'appliquent aux cellules humaines et comment une telle perspective peut éclairer la biologie des systèmes.

7. La cellule humaine : un exemple de système complexe

La cellule humaine est une machine naturelle vivante compliquée. Les cellules qui composent notre corps sont un exemple prototypique d'un système complexe naturel qui a évolué et s'est optimisé pendant des milliards d'années. Ce qui fait en partie des cellules humaines un système complexe typique, c'est qu'elles sont constituées de nombreux types de composants différents avec de nombreuses copies des mêmes composants, travaillant tous ensemble, interagissant de concert et en parallèle pour former une entité fonctionnelle d'ordre supérieur qui fait partie d'un organisme.

Nous sommes constitués d'environ 50 000 milliards de cellules. Presque toutes ces cellules contiennent le même code génétique qui est composé de longues molécules d'ADN qui sont des chaînes contenant le modèle et les instructions symboliques nécessaires pour créer un organisme entier. Les informations sur la façon de construire un organisme complet sont bien comprimées dans les noyaux des cellules humaines. Bien que l'ADN de toutes nos cellules soit le même, les quelque 400 types cellulaires différents constituant notre corps sont très différents les uns des autres. En effet, au sein de chaque type de cellule, différents ensembles de gènes sont exprimés. Cette expression différentielle des gènes est le résultat des différents signaux extracellulaires qui indiquent aux cellules comment se comporter. Les cellules reçoivent des signaux extracellulaires d'autres cellules leur indiquant quels gènes exprimer, et à leur tour, quelles protéines fabriquer et finalement comment se comporter quel type de cellule elles devraient devenir. Les cellules peuvent former des structures élaborées et se spécialiser en raison de ces protocoles de communication cellule-cellule qui résultent soit d'interactions cellule-matrice, soit de signaux paracrines ou endocriniens provenant d'autres cellules portées par de petites molécules qui peuvent traverser la membrane cellulaire ou se lier à récepteurs à la surface des cellules. Ce sont les capteurs du système complexe. Les voies de signalisation cellulaire intracellulaire sont déclenchées par la combinaison complexe de facteurs extracellulaires agissant tous en parallèle pour informer les cellules sur l'état de l'environnement. Cette forme de signalisation contrôle la dynamique des réseaux de régulation génique qui déterminent le programme d'expression génique de la cellule. Les récepteurs de surface cellulaire traversent la bicouche lipidique de la membrane plasmique de la cellule. C'est la barrière du système complexe de la cellule. Ces récepteurs écoutent ce qui se passe à l'extérieur de la cellule et communiquent les changements de l'environnement aux composants à l'intérieur des cellules. Lorsque la concentration biochimique d'un neurotransmetteur dans une région du cerveau, ou d'une hormone dans le sang, est modifiée, les récepteurs à la surface de la cellule peuvent être activés ou inhibés. L'information d'un tel changement est communiquée à la machinerie de l'unité centrale de traitement de la cellule, qui est un réseau de signalisation complexe de protéines et de métabolites qui amplifient, filtrent, traitent, décodent et transmettent les informations. Les petites molécules extracellulaires appelées ligands, telles que les hormones, les neurotransmetteurs ou les médicaments, se lient directement aux protéines réceptrices. La liaison de biomolécules extracellulaires aux récepteurs potentialise les récepteurs à transduire les signaux en modifiant la structure tridimensionnelle des récepteurs. Ce changement de conformation structurelle d'un récepteur a pour conséquence que d'autres protéines présentes à l'intérieur de la cellule, telles que des enzymes, modifient leur niveau d'activité, par exemple en se liant ou en se déliant aux récepteurs. Ces interactions intracellulaires peuvent conduire à l'activation d'autres enzymes qui catalysent les réactions biochimiques à l'intérieur de la cellule. Ces dynamiques biomoléculaires entraînent le transfert d'informations de l'extérieur de la cellule vers les régions internes de la cellule. Une cascade de réactions biochimiques agit constamment à l'intérieur des cellules en parallèle où différentes voies de signalisation sont constamment activées et désactivées. Ainsi, les informations provenant de milliers de récepteurs de types différents, présents à la surface de chaque cellule, sont intégrées pour déterminer le comportement de la cellule. Ceci peut être réalisé en régulant l'expression des gènes par l'activation ou l'inhibition de facteurs de transcription. Les facteurs de transcription sont des protéines qui se lient à l'ADN de la cellule pour réguler l'expression des gènes. D'autres effecteurs d'événements de signalisation cellulaire sont des protéines qui régulent la traduction des protéines, la dégradation des protéines, la modulation de l'activité électrique par des modifications post-traductionnelles des protéines des canaux dans la membrane, ainsi que la régulation de plusieurs autres machineries cellulaires et organites à l'intérieur des cellules [30].

L'un des résultats d'une telle régulation est la capacité de certaines cellules humaines à ramper [31-33]. La direction et la vitesse du crawl sont déterminées par le réseau de signalisation cellulaire [32], et peuvent être considérées comme l'un des actionneurs de la cellule. Un autre organite régulé par le réseau de signalisation cellulaire est la mitochondrie. Les mitochondries dans les cellules agissent comme des moteurs et des capteurs [34]. Ils produisent les sources d'énergie de monnaie commune ATP, GTP et NAD+. Ces molécules chargées d'énergie peuvent être utilisées par de nombreuses protéines pour effectuer leur travail. Fait intéressant, les mitochondries des cellules détectent les niveaux d'énergie et si elles reçoivent certains signaux, les mitochondries peuvent induire la mort cellulaire programmée, également appelée apoptose [35]. Un tel comportement altruiste est initié par les mitochondries en libérant des protéines qui déclenchent des signaux qui conduisent la cellule à se suicider pour le bien de l'organisme tout entier. Les origines évolutives de la mitochondrie illustrent également la symbiose. La similitude des mitochondries avec certaines bactéries qui existent aujourd'hui suggère fortement que les cellules ont été initialement infectées par la bactérie et que progressivement la bactérie est devenue une partie de la cellule grâce à une relation endosymbiotique évolutive [36].

La mort cellulaire programmée est parfois nécessaire si la cellule est endommagée ou infectée. Cependant, avant de prendre une mesure aussi drastique pour faire face à une infection ou à des dommages, les cellules ont évolué pour disposer de mécanismes de défense et d'auto-réparation. Un exemple de système de défense dans les cellules humaines est la réponse d'interféron à une infection virale [37]. Les cellules ont des récepteurs spécifiques et des protéines intracellulaires qui peuvent détecter l'ARN double brin viral et signaler au réseau de signalisation cellulaire d'activer une réponse immunitaire. Une telle réponse immunitaire signale aux cellules voisines la nouvelle de l'infection et déclenche une réaction interne pour traiter le corps étranger de diverses manières [38]. De même, un exemple de mécanisme d'auto-réparation est la réponse aux dommages à l'ADN, une machinerie qui peut réparer les cassures d'ADN double brin [39]. La machinerie de réponse aux dommages de l'ADN est également liée à la machinerie de mort cellulaire programmée. Si les dommages à l'ADN sont trop importants, la machinerie signale au réseau de signalisation cellulaire d'activer l'apoptose. La machinerie de réponse aux dommages de l'ADN est également liée à l'appareil du cycle cellulaire, l'étonnante capacité des cellules à s'auto-reproduire efficacement une copie d'elles-mêmes. Si des dommages à l'ADN sont détectés, le programme du cycle cellulaire est signalé pour s'arrêter. Les dommages cellulaires peuvent être causés par des espèces réactives de l'oxygène, un sous-produit du métabolisme [40,41]. Cela peut être considéré comme l'un des déchets de la cellule. Les cellules ont développé des mécanismes pour neutraliser les espèces réactives de l'oxygène et les utiliser pour la signalisation cellulaire, mais à des niveaux élevés, ceux-ci peuvent causer des dommages et entraîner des maladies. Un autre exemple de mécanisme d'élimination des déchets cellulaires est l'observation récente selon laquelle notre cerveau rétrécit pendant que nous dormons. Une étude récente a suggéré que cela était nécessaire pour éliminer les toxines métaboliques accumulées pendant la journée alors que nous étions éveillés et que nous utilisions pleinement notre cerveau [42]. Dans la maladie d'Alzheimer, les plaques amyloïdes qui se forment dans le cerveau pourraient être considérées comme des déchets cellulaires mal manipulés [43]. Le cycle circadien dans les cellules n'est que l'une des nombreuses horloges intégrées dans les réseaux de signalisation cellulaire et de régulation des gènes. Ces horloges assurent la régulation cyclique des processus qui doivent être actifs périodiquement [44,45]. Les liens ci-dessus entre les modèles de conception généraux observés dans de nombreux systèmes complexes et ceux observés dans les cellules humaines sont résumés visuellement (figure 2). Les connexions répertoriées ne sont pas exhaustives et ne sont faites ici que pour illustrer le concept général. On s'attend également à ce qu'au fur et à mesure que nous augmentons notre compréhension des composants internes des cellules humaines, de nombreux autres exemples émergeront.

Figure 2. La cellule humaine est un système complexe prototype. En rouge et à l'extérieur de la boîte se trouvent les propriétés générales des systèmes complexes. À l'intérieur se trouvent des manifestations de ces concepts abstraits dans des cellules humaines. Les articles de revue qui expliquent davantage certains des systèmes subcellulaires mentionnés dans la figure sont les suivants : exploration cellulaire [31-33], mitochondries [34-36], réponse à l'interféron [37,38], réseau de signalisation cellulaire [30], dommages à l'ADN réponse [39], espèces réactives de l'oxygène [40,41], rythmes circadiens [44,45] et autophagie [46]. (Version en ligne en couleur.)

8. Conclusion

Les cellules et leurs constituants internes sont trop petits pour que nous puissions les observer à l'œil nu, et les composants macromoléculaires à l'intérieur des cellules ne peuvent être observés qu'avec les meilleurs microscopes. Jusqu'à récemment, nous ne pouvions étudier que quelques composants moléculaires dans une cellule en une seule expérience. Cependant, avec les nouvelles percées biotechnologiques des dernières décennies, nous pouvons maintenant comprendre le fonctionnement interne des cellules à une plus grande échelle mondiale avec une résolution et des détails raffinés. En effet, ces nouvelles biotechnologies émergentes, par exemple le séquençage de l'ADN, de l'ARN et des protéines, peuvent mesurer le niveau de nombreuses espèces moléculaires en une seule expérience à la fois. Ces technologies produisent des instantanés de l'état des nombreuses variables composant le système complexe cellulaire. Cette révolution de la biologie cellulaire et moléculaire est appelée biologie des systèmes [22], un terme désormais interchangeable avec la bioinformatique des mégadonnées [47]. Elle permet de comprendre la régulation cellulaire de manière plus globale et plus holistique. Cependant, pour parvenir à une telle compréhension, de nouvelles théories expliquant comment toutes ces parties se réunissent pour produire des fonctions d'ordre élevé sont également nécessaires. Mais avant que de telles théories puissent se former, nous devons être capables de gérer les masses de données collectées à l'aide de ces nouvelles technologies. Avec la réduction rapide des coûts de calcul et de stockage, et les technologies qui permettent d'enregistrer presque tout, nous pouvons désormais suivre l'état des variables qui composent de nombreux types de systèmes complexes, dans le temps et sous diverses perturbations spontanées contrôlées ou naturelles, y compris humaines. cellules. Combien de telles données devons-nous collecter afin de construire une représentation précise à gros grains d'un système cellulaire humain entier ? Comment extraire au mieux les pépites de connaissances de ces données et faire des prédictions sur les comportements et les conditions du système qui ne sont pas encore mesurés, ou pas encore vus ? Comment visualiser et intégrer ces données de grande dimension ? Ce sont là quelques-uns des grands défis auxquels les scientifiques des données sont aujourd'hui confrontés, y compris les biologistes des systèmes informatiques.

Le domaine de la biologie des systèmes est à la fois riche et pauvre en données. Il est riche en données car il y a des tas de données déjà collectées mais qui devaient être analysées plus avant, et pauvre en données parce que le système est si complexe et si difficile à observer, et donc actuellement, les données que nous avons déjà collectées sont clairement insuffisantes pour bien comprendre les mécanismes moléculaires complexes qui régissent le comportement cellulaire humain.

Actuellement, nous ne comprenons pas pleinement tous les détails moléculaires sur la façon dont les réseaux de signalisation cellulaire intègrent et traitent réellement les informations pour réguler la fonction cellulaire. Les questions ouvertes comprennent comment les nombreux ligands différents, diffusant dans les milieux extracellulaires et capables de se lier à des types de récepteurs différents et multiples, initient des changements d'activité intracellulaire qui entraînent des phénotypes cellulaires alternatifs. Jusqu'à récemment, les biologistes cellulaires et moléculaires utilisaient une approche réductionniste pour étudier un système aussi complexe. Le réductionnisme en biologie a entraîné que les expérimentateurs ont passé toute leur carrière scientifique à se concentrer sur l'analyse d'un ou de quelques gènes et de leurs produits protéiques alors qu'en fait, chaque cellule de mammifère possède des milliers de types différents de gènes et de protéines exprimés à partir de ces gènes, pour fonctionner. tout à fait simultanément. Tous ces différents types de protéines travaillent de concert, influençant l'activité et le niveau d'abondance de chacun. Cependant, comme ces biomolécules sont si petites, nous ne pouvons pas voir exactement comment elles fonctionnent et nous devons recourir à des mesures indirectes pour mesurer leur activité. L'étude de seulement quelques gènes ou protéines par des laboratoires individuels domine encore aujourd'hui la recherche biomédicale. Les informations provenant des expériences sur un seul gène à faible débit et à forte intensité de main-d'œuvre menées par de nombreux laboratoires différents à travers le monde s'accumulent continuellement. Les informations provenant de telles études, caractérisant des protéines individuelles et leurs interactions, peuvent être utilisées pour reconstruire, grâce à l'intégration de données, une image plus globale du puzzle de la régulation cellulaire [30]. Cependant, une telle collecte de données souffre de biais de recherche [48] et de problèmes de reproductibilité [49]. Cependant, les approches de biologie des systèmes deviennent progressivement la nouvelle norme. Le concept d'étude des systèmes en biologie a été introduit auparavant, mais il n'y avait alors pas assez de détails moléculaires disponibles pour lier les interactions moléculaires au comportement du système [22].

Ces dernières années, les opportunités offertes par la promesse de l'intelligence artificielle et de l'apprentissage automatique ont suscité beaucoup d'enthousiasme, et en particulier l'apprentissage en profondeur. Les applications d'apprentissage en profondeur à la biologie des systèmes peuvent en effet accélérer la découverte par imputation de connaissances [50]. L'apprentissage en profondeur peut fournir des réponses sans avoir besoin de connaître tous les détails, mais peut également découvrir de nouvelles connaissances que les chercheurs ont négligées, de la même manière qu'un réseau de neurones profonds a découvert de nouvelles stratégies pour le jeu Go, des stratégies jamais envisagées par les humains depuis plus de 2000 ans de maîtriser le jeu de ce jeu complexe [51]. L'évolution technologique connaît également des progrès rapides en raison des progrès réalisés pour rendre les algorithmes d'apprentissage en profondeur plus accessibles grâce à du matériel spécialisé et des bibliothèques de logiciels open source faciles à utiliser. Bien que ces développements permettent des progrès, de tels progrès peuvent parfois être réalisés sans comprendre pleinement les implications tirées d'une perspective de théorie des systèmes complexes. Dans cette revue, j'ai tenté de souligner davantage l'importance d'obtenir une compréhension plus approfondie de la cellule humaine en tant que système complexe, ainsi que d'autres systèmes complexes autour de nous et à l'intérieur de nous.


Pourquoi les régions de faible complexité seraient-elles liées à une sélection relâchée ? - La biologie

L'évolution biologique est un processus au niveau de la population guidé par la sélection, et elle conduit à une augmentation de l'adaptation de la population aux circonstances environnementales dans lesquelles vit la population. La culture peut être définie comme l'ensemble des réalisations mentales et matérielles d'une société ou de l'humanité dans son ensemble. La théorie de l'évolution culturelle fournit une explication de la façon dont les cultures et les sociétés changent au fil du temps.

Fig. 1. Transfert d'informations dans l'évolution biologique et culturelle. Dans l'évolution biologique, le transfert est unidirectionnel et vertical, alors que dans l'évolution culturelle, il est bidirectionnel et vertical, horizontal ou oblique – en d'autres termes, en réseau.

L'évolution biologique et culturelle présente certaines similitudes mais aussi de nombreuses dissemblances. Les deux sont basés sur la variation, l'hérédité et la sélection, mais leur apparence et leur fonctionnement diffèrent. L'évolution biologique est inconsciente, opportuniste et non orientée vers un but, tandis que l'évolution culturelle est consciente, au mieux planifiée, et peut avoir un but. Dans le monde biologique, les sources de variation sont les mutations et la recombinaison génétique. L'hérédité est liée à la reproduction et est transmise aux générations suivantes via le matériel génétique. La sélection opère de deux manières, la sélection naturelle et la sélection sexuelle.

La sélection naturelle est une force qui sélectionne les variantes qui survivront et donneront une progéniture capable de se reproduire. La sélection sexuelle signifie qu'en sélectionnant leurs partenaires sexuels, les organismes sélectionnent en fait les gènes que la progéniture reçoit du partenaire. Ainsi, les deux formes de sélection opérant dans le monde biologique déterminent comment les fréquences relatives des différentes formes de gènes et combinaisons de gènes évoluent dans une population donnée, et ce processus est l'essence même de l'évolution biologique. De cette façon, la valeur adaptative moyenne de la population augmente tant qu'il existe une variation génétique de la valeur adaptative dans la population. En d'autres termes, l'adaptation de la population aux circonstances environnementales augmente continuellement.

Dans le régime de la culture humaine, les sources de variation sont certains actes basés sur la créativité humaine, comme les innovations par exemple.Dans l'évolution culturelle, l'imitation et certaines formes d'apprentissage plus avancées constituent l'équivalent de l'hérédité de l'évolution biologique. Une différence importante entre l'évolution biologique et culturelle est le fait que dans la première l'héritage des caractéristiques acquises est nié tandis que dans la seconde, il fait partie intégrante de la théorie. De plus, dans l'évolution biologique, le transfert d'informations génétiques est unidirectionnel et vertical, se produisant de la génération parentale à la progéniture uniquement, et ne se produit qu'une seule fois dans chaque cas. Dans l'évolution culturelle de sa part, le transfert d'informations est principalement basé sur des concepts immatériels parlés ou écrits, est bidirectionnel, et peut également être horizontal ou oblique, c'est-à-dire en réseau. Des informations culturelles peuvent également être stockées et leur transfert peut être répété à volonté. Ces différences entre l'évolution biologique et culturelle rendent cette dernière beaucoup plus rapide que la première.

Dans l'évolution culturelle, une troisième forme de sélection est efficace. Cette forme de sélection, appelée sélection sociale, implique une compétition sur d'autres ressources sociales que les membres du sexe opposé. Dans la sélection sociale, un rôle important est joué par la rétroaction donnée par les membres du groupe social dans lequel vit l'individu en question. Par conséquent, en pratique, dans la sélection sociale, l'acte de sélection est effectué par d'autres individus que celui dont l'aptitude sera affectée par la sélection.

L'aptitude culturelle traite des caractéristiques culturelles telles que les pensées et les idées, et est définie en fonction du temps. Plus une caractéristique culturelle est préservée longtemps dans la population, meilleure est son adéquation culturelle.

Il faut souligner l'importance du langage comme condition nécessaire à l'évolution culturelle, le langage étant le réplicateur culturel correspondant au gène dans l'évolution biologique. La créativité humaine et la lecture de l'esprit, la capacité humaine spécifique d'être conscient de ce que les autres ont en tête, sont des moteurs spécifiques de l'évolution culturelle.

Peter Portin
Laboratoire de génétique, Département de biologie
Université de Turku, Turku, Finlande