Informations

Qu'est-ce que le VCF cosmique ?


L'outil de variante MuTect populaire :

http://archive.broadinstitute.org/cancer/cga/mutect_run

a l'option VCF suivante :

--cosmic < comic.vcf >

Question : Quel est ce fichier VCF cosmique ? A quoi sert le fichier ?


VCF est l'abréviation de Variant Call Format. C'est un format de fichier pour les SNP.

COSMIQUE signifie Catalogue des mutations somatiques du cancer. C'est une base de données.

Consultez les liens pour plus d'informations.

Un VCF COSMIC n'est probablement qu'un fichier au format VCF contenant des données provenant de la base de données COSMIC.


Sans regarder les documents mutect et comment il pourrait l'utiliser, le VCF COSMIC ferait référence à un VCF de la base de données cosmique http://cancer.sanger.ac.uk/cosmic/


Rayon cosmique

Rayons cosmiques sont des protons de haute énergie et des noyaux atomiques qui se déplacent dans l'espace à presque la vitesse de la lumière. Ils proviennent du soleil, de l'extérieur du système solaire dans notre propre galaxie [1] et de galaxies lointaines. [2]

Les rayons cosmiques ont été découverts par Victor Hess en 1912 lors d'expériences en ballon. La mesure directe des rayons cosmiques, notamment à basse énergie, est devenue possible depuis le lancement des premiers satellites à la fin des années 1950. Des détecteurs de particules similaires à ceux utilisés en physique nucléaire et des hautes énergies sont utilisés sur les satellites et les sondes spatiales pour la recherche sur les rayons cosmiques. [3] Lors de l'impact avec l'atmosphère terrestre, les rayons cosmiques peuvent produire des pluies de particules secondaires qui atteignent parfois la surface.

Les données du télescope spatial Fermi (2013) [4] ont été interprétées comme la preuve qu'une fraction importante des rayons cosmiques primaires provient des explosions de supernovae d'étoiles. [5] Les noyaux galactiques actifs semblent également produire des rayons cosmiques, une réalité physique confirmée comme vraie, sur la base des observations de neutrinos et de rayons gamma du blazar TXS 0506+056 en 2018. [6] [7]


Comment éviter une catastrophe cosmique

Imaginez une civilisation avancée quelque part dans l'univers, qui a développé un accélérateur de particules qui fait entrer en collision des électrons à l'énergie de Planck, l'échelle où la gravité doit être décrite de manière quantique. Cette échelle d'énergie n'est pas une mince affaire pour un collisionneur, car elle correspond à dix quintillions (10 19 ) de fois la masse au repos du proton. Pour atteindre cette énergie avec notre technologie d'accélération existante, il faudrait un collisionneur linéaire de 10 000 années-lumière de long.

Mais divers concepts d'accélérateurs laser plasma, sur lesquels j'ai travaillé pendant mon doctorat, peuvent éventuellement réduire la distance d'accélération requise d'un facteur 10 000, réduisant la taille d'un tel collisionneur à la taille du nuage d'Oort qui entoure le Soleil. système. Et donc, on pourrait imaginer avec optimisme qu'une civilisation très avancée pourrait générer des collisions d'électrons aux énergies de Planck au sein de son système planétaire d'origine.

Il s'avère que la faisabilité hypothétique d'une telle expérience est un motif de préoccupation pour toutes les civilisations de l'univers. Laissez-moi expliquer.

Sur la base de l'expansion accélérée de l'univers, nous savons que le vide n'est pas vide mais a une certaine densité d'énergie noire. Les collisions de particules à l'énergie de Planck peuvent déclencher un effet tunnel local du vide vers un état d'énergie plus faible. La transition quantique entre les deux états peut nécessiter des énergies élevées pour surmonter la barrière qui sépare les deux états, ainsi que pour produire une bulle suffisamment grande pour que l'énergie gagnée par l'augmentation de son volume dépasse l'énergie investie dans la tension de sa superficie. Cette surface rappelle une peau de bulle de savon, ici soufflée en brûlant l'énergie noire & ldquofuel & rdquo à l'intérieur de celle-ci.

Le déclenchement de la décroissance du vide dans une bulle suffisamment grande à l'emplacement du collisionneur produirait un front de combustion en expansion, un soi-disant "mur de domaine", derrière lequel la densité d'énergie du vide serait convertie en chaleur, tout comme une onde de détonation brûle à travers un matériau explosif. Ce front brûlant sphérique se déplacera vers l'extérieur à la vitesse de la lumière et libérera une quantité d'énergie sans précédent dans l'espace, chauffant tout sur son passage. Si toute l'énergie noire était convertie en chaleur, cela porterait un volume illimité balayé par le front brûlant à une température de 30 degrés au-dessus du zéro absolu, 10 fois plus chaude et 10 000 fois plus dense en énergie que le rayonnement du fond diffus cosmologique, les restes du big bang chaud.

Une telle canicule serait-elle un motif d'inquiétude ? La mauvaise nouvelle est que nous ne recevrions aucun avertissement préalable avant que cette catastrophe cosmique ne nous frappe en plein visage car aucun signal précurseur ne peut se déplacer plus rapidement que la lumière pour nous alerter du risque. Mais c'est peut-être aussi une bonne nouvelle, car cela implique que toute dévastation résultante se produirait instantanément et serait aussi surprenante que l'impacteur de Chicxulub l'était pour les dinosaures. Nous ne saurions jamais ce qui nous a frappés.

Une façon d'éviter une catastrophe cosmique de ce type est d'établir un traité interstellaire, similaire au Traité d'interdiction des essais nucléaires, signé pour la première fois en 1963 par les gouvernements de l'Union soviétique, du Royaume-Uni et des États-Unis. L'objectif du &ldquoPlanck Collider Treaty&rdquo serait de protéger notre environnement cosmique des murs de domaine produits artificiellement. Sans un tel traité, nous ne pouvions que souhaiter que toutes les civilisations se comportent de manière responsable lorsqu'elles auront acquis la maturité technologique nécessaire pour construire un collisionneur à énergie de Planck. Nous aurions à espérer que nos voisins feraient preuve de responsabilité cosmique.

A long terme, la nécessité de signer un traité ne se fait sentir qu'au sein de notre galaxie, la Voie Lactée, et sa plus proche voisine, Andromède elle ne s'étend pas au-delà du Groupe Local de galaxies. Même sans traité signé ou honoré sur des échelles intergalactiques étendues, l'expansion accélérée de l'univers nous sauvera finalement du risque d'une catastrophe du collisionneur de Planck. Toutes les galaxies au-delà de &ldquoMilkomeda&rdquo (le résultat d'une fusion éventuelle entre la Voie lactée et Andromède, que mon collègue T.J. Cox et moi avons nommé dans un article de 2007) finiront par s'éloigner de nous plus rapidement que la lumière. Comme je l'ai montré dans un article de 2002, une fois que toutes les autres galaxies ont quitté notre horizon des événements cosmique, rien ne se passe à l'intérieur d'elles ne pourrait nous affecter car tous les signaux causaux se propagent au plus à la vitesse de la lumière. Une fois que l'univers vieillira d'un autre facteur de dix, Milkomeda ne sera plus entouré que d'un espace sombre.

L'expansion cosmique accélérée emportera loin de nous tous les collisionneurs risqués de Planck au sein des galaxies lointaines, nous protégeant finalement de tout incident. Cela constitue encore un autre exemple de la bonté de Mère Nature avec nous. Nous sommes bénis par une distanciation sociale incontournable à l'échelle cosmique. Après tout, un mur de domaine cosmique pourrait être bien plus dangereux que COVID-19 car la physique fondamentale n'offre aucune échappatoire à son balayage brûlant à la vitesse de la lumière.

À PROPOS DES AUTEURS)

Avi Loeb est l'ancien président (2011-2020) du département d'astronomie de l'Université Harvard, directeur fondateur de la Black Hole Initiative de Harvard et directeur de l'Institute for Theory and Computation au Harvard-Smithsonian Center for Astrophysics. Il préside également le Conseil de physique et d'astronomie des académies nationales et le conseil consultatif du projet Breakthrough Starshot, et est membre du Conseil présidentiel des conseillers en science et technologie. Loeb est l'auteur à succès de Extraterrestre : le premier signe de vie intelligente au-delà de la Terre (Houghton Mifflin Harcourt).


Rayons cosmiques et sens de la vie

Les scientifiques réfléchissent à un mystère sur la vie depuis au moins un siècle : de nombreuses molécules biologiques se présentent sous deux versions en miroir, tout comme les mains humaines en fait, elles sont connues sous le nom de « droitier » et « ldquo gaucher ». Les réactions chimiques naturelles produisent des nombres à peu près égaux. des deux types de molécules. Mais les sucres et les acides aminés qui servent de blocs de construction à la vie sur Terre n'ont qu'une seule main, ce qui permet aux protéines et aux acides nucléiques d'adopter des structures hélicoïdales stables, comme l'ADN, qui, à son tour, permet aux organismes vivants d'évoluer et de prospérer.

La désignation de latéralité&mdashleft versus right&mdashis est historique et apparaît parfois arbitraire. Par exemple, l'ADN est droitier, tandis que les acides aminés associés sont gauchers. Cependant, ce qui compte, ce n'est pas la dénomination mais le fait qu'un choix possible sur deux ait été fait. Une grande question est &ldquoPourquoi une main s'est-elle développée et pas l'autre ?» Est-ce une question de chance ou d'accident ou y avait-il une raison à cela ?

Dans un article récent de Lettres de revues astrophysiques, nous proposons un mécanisme qui pourrait conduire à la préférence manuelle de la vie. Cela commence par les rayons cosmiques : des noyaux atomiques, dépouillés de leurs électrons, qui voyagent à travers l'univers à une vitesse proche de la lumière, pour finalement se briser dans notre atmosphère et déclencher une cascade de particules secondaires. Lorsque ces particules interagissent avec les premiers organismes vivants, elles les ont amenés à développer la latéralité que nous voyons aujourd'hui. Si cela était confirmé, cela résoudrait non seulement le mystère, mais nous donnerait également quelques indices sur la façon de rechercher la vie au-delà de la Terre.

Pour être clair, nous ne sommes certainement pas les premiers à relier l'homochiralité à l'interaction faible. Vester, Ulbricht, Zelàrsquodovich, Salam et d'autres ont exploré cette idée il y a longtemps. Cependant, ce que nous pensons être nouveau et vérifiable dans notre recherche est un mécanisme de base par lequel les rayons cosmiques, agissant directement sur le taux de mutation et donc sur l'évolution des formes vivantes les plus simples et les plus anciennes, sont en fin de compte responsables de l'universalité qui imprègne toute la vie d'aujourd'hui dans toute sa complexité et son interdépendance.

L'homochiralité biologique, comme on l'appelle, est un domaine de recherche et de débat intense depuis sa découverte par Louis Pasteur en 1848. Elle a une contrepartie dans l'une des forces fondamentales de la physique, appelée la force faible, qui a été trouvée dans les années 1950 pour montrer une habileté similaire. Les rayons cosmiques, ou plus précisément les gerbes de particules secondaires qu'ils produisent, et qui sont créées par cette force faible, assurent un lien direct entre l'asymétrie de la physique et l'asymétrie de la biologie.

On pense que les rayons cosmiques proviennent du soleil, des étoiles qui explosent dans notre galaxie et autour des trous noirs lointains. Ils sont généralement considérés comme nuisibles. En effet, lorsqu'un rayon cosmique interagit avec une molécule biologique, il peut éjecter, ou ioniser, un électron et rompre les liaisons chimiques qui unissent les atomes entre eux. Si l'intensité du rayonnement est élevée, les êtres humains tombent malades ou meurent. C'est l'une des raisons pour lesquelles voyager et vivre sur Mars pourrait être très dangereux. À des niveaux de rayonnement très élevés, toute vie serait détruite.

Cependant, de faibles niveaux de rayonnement ionisant peuvent provoquer des mutations de molécules biologiques et favoriser la variation génétique. Cela permet d'apporter de petits changements graduels aux organismes vivants qui les aident à explorer de meilleures façons de survivre dans des environnements changeants. C'est l'évolution au travail. Comme on le prétend communément pour le vin rouge, les petites doses sont bénéfiques !

Qu'est-ce que cela a à voir avec l'homochiralité ? Lorsque les particules élémentaires ont à la fois une charge électrique et une caractéristique quantique appelée spin, elles se comportent comme de minuscules aimants avec un pôle nord et un pôle sud. Maintenant, un rayon cosmique frappant l'atmosphère peut créer des particules chargées en rotation appelées muons et électrons, et elles se déplacent de préférence avec le pôle sud vers l'avant. Lorsque les muons et les électrons rencontrent une molécule vivante, ces aimants orientés peuvent provoquer une infime différence dans le taux de mutation des droitiers et des gauchers. Sur de nombreuses générations, peut-être des milliards voire des milliards de milliards, ce léger biais peut faire fleurir l'un et faire disparaître l'autre : l'homochiralité. Ce qui est nouveau dans cette proposition, c'est qu'elle combine une cause physique&mdashrayons cosmiques&mdashavec une propriété chimique des molécules vivantes&mdashstructures hélicoïdales&mdash pour affecter la façon dont la vie primitive a évolué.

Donc, c'est l'explication proposée pour la sévérité de la vie, et, comme toutes les idées scientifiques, elle devrait être testée. Il existe deux approches. La première est de voir si la vie est partout homochirale. Un problème clé auquel l'astrobiologie est confrontée est d'évaluer quels environnements sont propices à la vie. Nous ne savons pas comment et où la vie s'est formée, mais nous la recherchons activement, à la surface ou sous la surface des autres planètes du système solaire, sur leurs lunes glacées, dans les astéroïdes et même dans les comètes. Certains de ces environnements extraterrestres contiennent des sucres et des acides aminés. S'il s'avère qu'ils présentent également de la vie, alors celle-ci devrait avoir la même habileté que la vie sur Terre, car elle est exposée aux mêmes rayons cosmiques.

La deuxième approche consiste à réaliser des expériences. C'est un défi quand on ne comprend pas comment la vie s'est formée ! Cependant, nous pouvons fabriquer des muons et des électrons avec des aimants orientés vers le sud et vers le nord et voir s'il existe une différence dans la façon dont ils interagissent avec les molécules biologiques et peut-être même les virus et les bactéries. Il y a eu de nombreuses analyses théoriques et expériences visant à déterminer le rôle possible des électrons polarisés magnétiquement (ou de la lumière polarisée circulairement) dans la chimie sélective chirale, mais pas dans la biologie sélective chirale.

Cependant, ce qui est le plus excitant de tous, c'est de pouvoir poser ces questions à un moment où l'on découvre tant de choses et d'être prêt à être surpris par leurs réponses.


Qu'est-ce que le VCF cosmique ? - La biologie

Des experts en information biotechnologique ont soumis cette question à la modélisation informatique. À partir de milliers de génomes bactériens, leur graphique (illustré) a la forme caractéristique : près de 4 000 gènes étaient des singletons, et 20 gènes étaient partagés entre près de 2 000 des génomes. Avec des hypothèses variables sur le taux de gain et de perte de gènes, et sur la taille du pool génétique disponible, leurs modèles peuvent produire une distribution similaire. Leur première hypothèse : de nouveaux gènes ne peuvent être acquis que via HGT, alors que d'autres mécanismes, tels que la duplication suivie de la divergence et la naissance de gène de novo, sont ignorés.

« Est-ce que la vie est spéciale ? » est le titre d'un seul des 17 essais brefs et riches de ce livre. Celles-ci sont très variées, notamment "What Came Before the Big Bang" et "The Ghost House of My Childhood". Lightman est un auteur prolifique qui maîtrise aussi bien la science que le lyrisme. Maintenant, il nous a donné une nouvelle collection soignée de sagesse et de réflexions.

Il a occupé un double poste de professeur en sciences et sciences humaines à Harvard et au MIT. En 2006, il a fondé la Harpswell Foundation, qui « dote les jeunes femmes d'Asie du Sud-Est de compétences en leadership, d'éducation et d'un réseau de soutien ». Alan est également un directeur consultatif du sponsor de ce site Web et un ami précieux.

La plupart des gènes liés au cerveau étaient soumis à une forte sélection purificatrice. D'autres, y compris les gènes susceptibles de gouverner la taille du cerveau, présentent des preuves de sélection positive ou de substitutions de nucléotides non synonymes excessives. L'étude complète et révolutionnaire est disponible en ligne.

De nombreuses innovations majeures caractérisent l'évolution de la vie sur Terre. Les étapes menant au système nerveux chez les primates en font partie. De telles innovations nécessitent de longs programmes génétiques. À notre avis, ces programmes doivent à l'origine arriver par une certaine forme de transfert de gènes, qui peut survenir peu de temps avant, ou bien avant que les programmes ne soient déployés. Les innovations majeures peuvent être qualifiées de « macroévolution ».

La microévolution, en revanche, provient facilement de substitutions de points nucléotidiques. De nombreuses preuves montrent maintenant que ces mutations peuvent souvent être soumises à une sélection positive, et cela peut même être ciblé sur des nucléotides spécifiques. Nous ne doutons pas que la microévolution puisse explorer et optimiser le potentiel d'une programmation innovante, après son installation. Est-ce ainsi que le cerveau humain a atteint sa taille ?

Quoi de neuf à propos de HGT | Le rôle des virus dans l'évolution est de plus en plus reconnu et exploré. Même le noyau eucaryote peut dériver de gros virus à ADN - ils produisent des enceintes de type noyau. Aujourd'hui, la suggestion n'est plus surprenante et le scepticisme s'estompe. Les virus peuvent facilement fournir une programmation génétique complexe qui est autrement inexpliquée.

Une manifestation de la Règle de Fer est le « Principe Tychonique » : l'importance des observations avec précision jusqu'à de nombreuses décimales. L'utilisation par Kepler des données volumineuses de Tycho illustre ce principe. Il en serait de même de la mesure minutieuse de la courbure de la lumière des étoiles dans l'éclipse solaire de 1919 - en théorie au moins. Mais les données d'éclipse n'étaient pas très précises. Dans leur interprétation, les préjugés d'Eddington avaient un rôle bien plus important que la précision. En général, les affirmations de Strevens selon lesquelles la science primitive était si primitive, la révolution scientifique était si abrupte et la science est enfin pleinement objective me semblent discutables.

En lisant le livre, j'ai souvent eu envie de lever la main et de poser une question. Parfois, Strevens abordait le problème, mais pas toujours. Par exemple, Strevens dit que la règle de fer garantit le consensus, ce qui permet la continuité, ce qu'il juge important. Mais parfois, le consensus fait totalement défaut, comme dans la théorie de l'évolution. L'évolution de la vie est l'une des questions les plus controversées de l'histoire de la science. Je n'y vois pas de consensus, seulement une crise. Strevens a étudié Thomas Kuhn mais semble peu convaincu par lui.

Grâce à la règle de fer, Strevens déclare : « Il y a toujours quelque chose que même les ennemis les plus acharnés peuvent accepter de faire ensuite : un autre test. C'est totalement faux. Le schisme entre le darwinisme et la conception intelligente illustre cela. De mon point de vue de tiers, l'impasse est particulièrement évidente.

Pourtant, j'ai bien aimé lire The Knowledge Machine. J'aime en savoir plus sur Aristote, Francis Bacon, Descartes, Galileo, Newton, Kelvin, D'Arcy Thompson, Whewell et bien d'autres, dans des épisodes bien racontés et des vignettes colorées. L'écriture de Strevens est facile à vivre, son érudition est très impressionnante et son ambivalence à propos de sa propre règle de fer est intrigante.


Séquençage d'amplicon de lignée cellulaire COLO829 diluée

L'ADN de COLO829BL et COLO829 a été extrait à l'aide du kit DNeasy Blood & Tissue (Qiagen), et les échantillons d'ADN du mélange ont été générés en injectant 0,1 % et 0,02 % de COLO829 dans COLO829BL. Des amorces pour les cibles SNV (Fichier supplémentaire 1 : Tableau S2d) de 130 pb à 170 pb ont été conçues en utilisant Primer3. La PCR a été réalisée avec le kit PCR KAPA HiFi HotStart ReadyMix et NEBNext Q5 Hot Start HiFi PCR Master Mix, 10 M de chaque amorce, 50 ng de COLO829BL, COLO829, deux réplicats de mélange à 0,1% et deux réplicats de mélange ADN à 0,02% pour chaque cible en utilisant les conditions PCR suivantes : 95 °C pendant 5 min, 26 cycles de 98 °C pendant 20 s, 63 °C pendant 15 s, 72 °C pendant 15 s et 72 °C pendant 1 min avant stockage à 4 °C (Kapa HiFi HotStart) 98 °C pendant 30 s, 26 cycles de 98 °C pendant 10 s, 65 °C pendant 15 s, 72 °C pendant 20 s et 72 °C pendant 2 min avant stockage à 4 °C (NEBNext Q5). Tous les amplicons ont été soumis à un contrôle de qualité sur un E-gel d'agarose à 2 % (Invitrogen), puis regroupés dans des bacs et purifiés par Agencourt Ampure XP Beads. Un total de 100 ng de chaque amplicon regroupé a été réparé à l'extrémité, ligaturé avec un adaptateur et enrichi via 8 cycles de PCR en utilisant le kit PCR KAPA HiFi HotStart ReadyMix ou le mélange maître NEBNext Q5 Hot Start HiFi PCR. Enfin, les bibliothèques d'amplicons ont été regroupées selon des ratios spécifiques pour permettre la génération d'une couverture de 300 000X pour un pic de 0,1 %, une couverture de 100 000X pour un pic de 0,02 %, 50 000X pour COLO829BL et une couverture de 30 000X pour COLO829 sur le mode rapide Illumina HiSeq 2500 et NovaSeq 6000 S1 Flow Cell séquençage de 2 × 101 cycles à deux extrémités.

Ensemble de données COLO829

La lignée cellulaire de mélanome COLO829 a perdu son hétérozygotie en 1q avec 4 copies [21] (Fichier supplémentaire 2 : Figure S2a), et sa lignée cellulaire normale correspondante COLO829BL avait un génome diploïde. En 1q, il existe 3 groupes de SNV avec différents nombres de MAF (Fichier supplémentaire 2 : Figure S2b) : 100 % (4 des 4 allèles totaux) 50 % (2 des 4 allèles totaux) et 25 % (1 des 4 allèles totaux ). Nous avons profité de ce fait et sélectionné 16 marqueurs SNV de la région 1q : 6 SNV avec un MAF de 1,0, 7 SNV avec un MAF de 0,5 et 3 SNV avec un MAF de 0,25. Nous avons également sélectionné 2 SNV d'une région diploïde dans chr4 (nous aurions donc 5 SNV avec 1 allèle mutant dans chaque cellule cancéreuse). Nous avons également sélectionné BRAF V600E, une mutation du point chaud oncogène détectée dans cet échantillon qui a un MAF de 0,67 (4 copies sur 6 sont mutées), totalisant 19 SNV (Fichier supplémentaire 1 : Tableau S2d). Marqueur chr1.203055000. G>A a échoué avec l'amplicon Q5, il y a donc 18 SNV dans l'ensemble de données NovaSeq + Q5.

Le nombre attendu de MAF est calculé comme suit CRG = une/(1 × 4 + 1000 × 2) ≈ une/2000 pour les marqueurs 1q avec dilution 1:1000, CRG = 1 × une/(1 × 4 + 5000 × 2) ≈ une/10000 pour les marqueurs 1q avec dilution 1:5000, où une (= 1, 2, 4) représente le nombre total d'allèles mutants dans 1 cellule cancéreuse pour un SNV donné. Une approximation similaire a été utilisée pour BRAF V600E (une = 4) et les 2 SNV (une = 1) dans chr4. Les lignes verticales rouges, bleues et noires des Figs. 2, 3 et 4 (et Fichier supplémentaire 2 : Figure S5–9, 11) correspondent à une (=1, 2, 4) pour les concentrations de dilution correspondantes, respectivement.

Ensemble de données d'hybridation-capture

L'ADN génomique a été cisaillé pour

Taille moyenne de 150 à 200 pb en utilisant un ultrasoniseur focalisé Covaris LE220. L'ADN fragmenté a ensuite été réparé à l'extrémité, à queue dA, ligaturé par adaptateur et enrichi par amplification PCR à l'aide du kit de préparation de bibliothèque Kapa HTP Illumina 96rxn. Les appâts conçus ont été hybridés avec des bibliothèques d'ADN ligaturées par adaptateur pendant 64 à 72 h. Ensuite, les hybrides appât-cible ont été capturés par des billes de streptavidine et enrichis par enrichissement PCR secondaire. Les bibliothèques de capture ont été séquencées en effectuant 150 cycles appairés sur le système Illumina HiSeq X Ten à 50 000X. Cet ensemble de données a une médiane de 87 094 (plage de 31 437 à 129 934) paires de bases couvertes à ≥ 15 000X sur 47 échantillons (voir la liste détaillée des échantillons dans le fichier supplémentaire 1 : tableau S4).

Séquençage WGS

L'ADN a été extrait des échantillons stockés à l'aide du kit QIAamp DNA Blood Mini (QIAGEN cat # 51106) ou du kit DNeasy Blood & Tissue (cat # 69506). Après extraction, la concentration d'ADN a été mesurée par fluorométrie à l'aide du kit de dosage dsDNA Quant-iT (Life Technologies cat#Q33130), et l'intégrité de l'ADN a été vérifiée visuellement par électrophorèse sur gel d'agarose (E-Gel, Life Technologies, cat#G8008-01) . Le séquençage du génome entier (WGS) a été réalisé au HudsonAlpha Institute for Biotechnology Genomic Services Laboratory (Huntsville, AL, USA) en utilisant les séquenceurs Illumina HiSeq X Ten. Un total de 1663 échantillons de génome entier provenant d'une précédente étude St. Jude LIFE (SJLIFE) [29] (voir la liste d'échantillons détaillée dans le fichier supplémentaire 1 : tableau S5) ont été inclus dans ce travail.

Les données de séquençage du génome entier ont également été analysées en utilisant CleanDeepSeq pour chaque échantillon. Pour tenir compte des polymorphismes, au sein de chaque échantillon, seuls les loci avec une couverture ≥ 20X et > 95% (de sorte que le binôme P la valeur d'observation de 1 allèle non référencé sur 20 lectures est de 4 × 10 −5 et binomiale P la valeur de l'observation de 2 allèles de non-référence à partir de 40 lectures est de 1,5 × 10 -9 étant donné que le locus est hétérozygote) les lectures étant l'allèle de référence ont été fusionnées dans un fichier à comptage unique. Les loci avec des appels hétérozygotes (c'est-à-dire, aucun allèle avec une fraction > 95 %) chez aucun sujet ont été exclus de l'analyse. Nous n'avons utilisé que des loci avec une couverture réduite 20 000X dans notre analyse d'erreurs pour cet ensemble de données.

Empilement direct

Pour comparer CleanDeepSeq avec l'empilement direct (Fig. 2b), nous avons implémenté la commande "lofreq plpsummary -Q 30 -q 30 -m 55 -d100000000" de LoFreq [34], ce qui signifie compter les bases (allèles de référence et non de référence). ) en utilisant un seuil de qualité de 30 et n'incluant que les lectures avec une qualité de mappage (MAPQ) > 55 (la valeur 255 a également été supprimée car elle indique que la qualité de mappage n'est pas disponible (https://samtools.github.io/hts-specs/ SAMv1.pdf)). Conformément à un rapport précédent [35], le recalibrage [36] n'a pas modifié de manière significative le résultat du carambolage (données non présentées). L'empilement direct sur NovaSeq a entraîné un taux d'erreur

10 -4 , indiquant une amélioration significative du séquenceur. Cependant, CleanDeepSeq a amélioré (10 fois moins d'erreurs) la suppression des erreurs au-delà de l'empilement pour les modifications, notamment A>C/T>G, A>T/T>A, C>A/G>T. Cependant, l'empilement direct par LoFreq a généré des comptages irréguliers lorsque la profondeur dépassait 10 millions. Par conséquent, nous avons sous-échantillonné les données brutes à 20 % pour les expériences NovaSeq.

Ensemble de données de séquençage de l'exome entier du neuroblastome avec des dommages connus sur l'échantillon et ensemble de données de séquençage de l'exome entier de la LMA

Pour étudier des échantillons présentant des dommages connus à l'ADN, nous avons téléchargé un ensemble de données de séquençage de l'exome entier du neuroblastome [28] généré par le Broad Institute en 2010 et 2012 (à l'aide du séquenceur Illumina GAII ou HiSeq 2000, voir « Méthodes »). Cet ensemble de données de séquençage de l'ensemble de l'exome (76 pb) comprenait des échantillons d'ADN natif (Exome_Native) et amplifié du génome entier (Exome_WGA), dont les premiers étaient connus pour contenir des niveaux élevés d'erreurs C>A/G>T (Fichier supplémentaire 2 : Figure S2 de Pugh et al [28]) en raison de la sonication à haute énergie à l'étape de cisaillement de l'ADN pendant la construction de la bibliothèque. Seuls les échantillons de lignée germinale ont été analysés. Nous avons compté les allèles sur chaque site génomique avec CleanDeepSeq ou lofreq comme décrit ci-dessus et utilisé la piste de mappabilité 75-mer du navigateur de génome UCSC (voir ci-dessous).

Parce que nous nous intéressons aux dommages à l'ADN au niveau de l'échantillon, nous voulions obtenir des taux d'erreur spécifiques à l'échantillon et au site. Cependant, comme la profondeur de séquençage n'est que de 100X à 200X, nous n'avons pas pu calculer correctement le taux d'erreur spécifique au site pour cet ensemble de données. Nous nous sommes donc concentrés sur tous les sites bien couverts (≥ 50X et avec un allèle de référence dominant avec une fraction > 95%, de sorte que le binôme P la valeur d'observation d'un allèle de non-référence à partir de 50 lectures est de 4 × 10 −14 et le binôme P la valeur de l'observation de deux allèles de non-référence à partir de 50 lectures est de 1 × 10 −12 étant donné que le locus est hétérozygote) pour calculer le taux d'erreur au niveau de l'échantillon (défini comme le total des bases de non-concordance divisé par le total des bases mappées, voir [37]). Un ensemble de données de séquençage de l'ensemble de l'exome AML [15] (22 échantillons de lignée germinale) généré par le Baylor College of Medicine Human Genome Sequencing Center en 2012 (à l'aide du séquenceur Illumina HiSeq 2000 voir « Méthodes ») a également été analysé pour renforcer davantage nos conclusions.

Application de deepSNV et MuTect à la détection de substitution de bas niveau

Pour appliquer l'algorithme deepSNV (version 1.26.0) [30], nous divisons nos décomptes CleanDeepSeq de A, C, G, T sur chaque site en deux moitiés - une pour le brin de référence et l'autre pour le brin inverse - car deepSNV nécessite un brin -comptage spécifique. Nous avons ensuite fourni les données de comptage (données de dilution comme « cas » et données normales comme « contrôle ») à la fonction « deepSNV » dans R (version 3.4.4). Les mutations ont été appelées avec un P valeur seuil de 0,05 après correction de Bonferroni.

Pour appliquer l'algorithme MuTect (version 1.1.4) [31], nous avons implémenté la commande suivante : java -Xmx2g -jar muTect-1.1.4.jar --analysis_type MuTect --reference_sequence REFERENCE.fasta --input_file:normal GERMLINE. bam --input_file:tumor TUMOR.bam --out CALL_STATS.txt --coverage_file COVERAGE.wig --cosmic COSMIC.vcf --dbsnp DBSNP.vcf --downsampling_type NONE --force_alleles --tumor_f_pretest 0.000001 --gap_events_threshold 1000 -- fraction_contamination 0,00, où GERMLINE.bam est notre lignée cellulaire normale non diluée et TUMOR.bam est (1) 1:1000, (2) 1:5000 lignée cellulaire diluée, ou (3) la lignée cellulaire cancéreuse non diluée. Nous avons appliqué MuTect à l'ensemble de données NovaSeq + Q5 généré par StJude. L'exécution initiale de MuTect a généré des nombres d'allèles irréguliers pour les marqueurs candidats qui se sont avérés être dus au comportement par défaut de MuTect pour sous-échantillonner les lectures (indiqué comme « Le principe de ce type de sous-échantillonnage est de sous-échantillonner les lectures jusqu'à une couverture de seuil de plafonnement donnée. Son but est de se débarrasser d'une couverture excessive, car au-delà d'une certaine profondeur, avoir des données supplémentaires n'est pas informatif et impose des coûts de calcul déraisonnables. » dans la documentation MuTect de https://software.broadinstitute.org/gatk/documentation/tooldocs/3.8 -0/org_broadinstitute_gatk_engine_CommandLineGATK.php). Lorsque ce comportement est désactivé (en ajoutant le paramètre "--downsampling_type NONE"), nous ne pouvons pas exécuter MuTect, même à une demande de mémoire de 20 Go, en raison de la grande profondeur de nos données. Par conséquent, nous avons sous-échantillonné notre fichier bam à une profondeur de 50 000X pour chacune des 18 régions d'amplicon afin que nous puissions exécuter l'algorithme MuTect. Pour tester l'amélioration de la précision de détection des variantes MuTect par la suppression des erreurs à l'aide de CleanDeepSeq, nous avons filtré les lectures de faible qualité (comme décrit dans la section suivante « Suppression des erreurs par CleanDeepSeq ») et créé de nouveaux fichiers bam (ensemble de données de dilution et ensemble de données normal) en entrée pour MuTect.

Suppression des erreurs par CleanDeepSeq

Étant donné que la qualité de base a chuté aux extrémités de lecture pour les données HiSeq (Fig. 1b Fichier supplémentaire 2 : Figure S3b, f, j), nous avons rogné les cinq premières et dernières paires de bases des lectures. Ce rognage permettrait également de nettoyer les séquences d'adaptateur/amorce résiduelles potentielles. Le même paramètre est également utilisé pour d'autres ensembles de données. Pour éviter les artefacts attribuables à l'ambiguïté de mappage, nous avons utilisé un seuil de qualité de mappage strict (MAPQ) de 55 (la valeur 255 a également été rejetée car elle indique que la qualité de mappage n'est pas disponible (https://samtools.github.io/hts-specs/ SAMv1.pdf)), qui a affecté 18,2 % des lectures (16,2 % si vous utilisez un seuil MAPQ de 30 Fichier supplémentaire 2 : Figure S3c, g, k) dans l'ensemble de données HiSeq. De plus, comme les lectures avec insertion/suppressions et/ou réarrangements structurels peuvent introduire une ambiguïté d'alignement, nous n'avons inclus que les lectures avec des incompatibilités de substitution (c'est-à-dire que la chaîne CIGAR correspond à l'expression régulière /^d + M$/ affectant

1% lit Fichier supplémentaire 2 : Figure S3d, h, l). Les lectures avec ≥ 5% de bases de score de qualité Phred < 20 ont également été supprimées car elles ont des taux d'erreur élevés (Fig. 1c Fichier supplémentaire 2 : Figure S3d, h, l). Pour éviter de compter deux fois un allèle du même fragment d'ADN, nous avons utilisé la procédure suivante pour les fragments avec des paires de lecture qui se chevauchent : (i) si une paire de bases n'a qu'une seule lecture en lecture directe ou inverse (partie sans chevauchement), elle ne sera compté comme 1 que si son score de qualité Phred est ≥ 30 (ii) si une paire de bases a deux lectures dans les deux lectures avant et arrière (partie qui se chevauche), il sera compté comme 1 si les lectures avant et arrière sont concordantes et Score de qualité Phred ≥ 30 ou si une seule lecture a un score de qualité Phred ≥ 30.

Analyse approfondie des données de séquençage

Pour les données de grande profondeur, les sites suffisamment couverts (> 500X) et ayant un allèle dominant (fréquence > 95%) ont été comptés. Pour l'analyse du taux d'erreur (comme dans la Fig. 2b), nous avons utilisé 500 000 X comme seuil de profondeur pour les données COLO829, 15 000 X pour les données de capture d'hybridation et 20 000 X pour les données WGS réduites afin de tenir compte de l'incertitude d'échantillonnage et des différentes profondeurs conçues. Pour l'analyse du contexte, les bases flanquantes devaient également avoir un allèle dominant avec une fréquence > 95%. L'hypothèse implicite d'un seuil de 95 % est que le taux d'erreur dépasse rarement 5 %. Due to the possible presence of true low-level SNVs (such as mosaic mutations) that are not recognized, this threshold might lead to slightly over-estimated background error rates. Therefore, we consider a 95% threshold to be conservative for our reported error rates (i.e., the true error rates could be even lower).

Usage of summary statistics

Usually, summary statistics such as median/mean are used to represent population averages. With sufficiently high depth, such as in Fig. 2, median is a good summary statistic for our purpose. However, with reduced depth, such as in downsampling (Additional file 2: Figure S11), most genomic sites have MAF 0, rendering mean or median non-informative. As a result, we used higher percentiles, such as 99.9th percentile, to represent the population characteristics. Because such a statistic is much less robust (in terms of sampling uncertainty) than are mean or median, we required a sufficient number of sample points to use this statistic in this work. Specifically, for the hybridization-capture dataset (Fig. 5), we required that there be > 20,000 genomic sites for each of the 12 substitution types for a sample to be included in the analysis (21 of the 47 hybridization-capture samples passed this threshold and are included in Fig. 5). This requirement ensures that there are > 20 genomic sites with error rate above the 99.9th percentile for each of the 12 substitution types. One advantage of using 99.9th percentile is that it automatically implies a false-positive rate of 0.1% (i.e., 99.9% of genomic sites have lower allele fraction than this statistic). A similar reasoning was used for the comparison between hybridization-capture dataset and the whole-genome sequencing dataset (Fig. 7).

Other analysis details

Reads were aligned by using bwa (0.7.12-r1039) with option “aln.” To avoid artifacts due to paralog mapping, we included only base pairs in uniquely mappable regions for 100-mers (http://hgdownload.soe.ucsc.edu/goldenPath/hg19/database/wgEncodeCrgMapabilityAlign100mer.txt.gz for hg19 and http://hgdownload.soe.ucsc.edu/gbdb/hg38/hoffmanMappability/k100.Umap.MultiTrackMappability.bw for hg38 downloaded March 2018) and for 75-mers (http://hgdownload.cse.ucsc.edu/goldenPath/hg19/encodeDCC/wgEncodeMapability/wgEncodeCrgMapabilityAlign75mer.bigWig). Only regions with a mappability score of 1 and length > 300 bp were considered. Furthermore, the first and last 50 bp of a region were excluded to account for potential edge effects.


Sottoriva A, Spiteri I, Piccirillo SG, Touloumis A, Collins VP, Marioni JC, Curtis C, Watts C, Tavare S. Intratumor heterogeneity in human glioblastoma reflects cancer evolutionary dynamics. Proc Natl Acad Sci U S A. 2013110:4009–14.

Patel AP, Tirosh I, Trombetta JJ, Shalek AK, Gillespie SM, Wakimoto H, Cahill DP, Nahed BV, Curry WT, Martuza RL, et al. Single-cell RNA-seq highlights intratumoral heterogeneity in primary glioblastoma. Science. 2014344:1396–401.

Stupp R, Mason WP, van den Bent MJ, Weller M, Fisher B, Taphoorn MJ, Belanger K, Brandes AA, Marosi C, Bogdahn U, et al. Radiotherapy plus concomitant and adjuvant temozolomide for glioblastoma. N Engl J Med. 2005352:987–96.

Turkalp Z, Karamchandani J, Das S. IDH mutation in glioma: new insights and promises for the future. JAMA Neurol. 201471:1319–25.

Ohgaki H, Kleihues P. The definition of primary and secondary glioblastoma. Clin Cancer Res. 201319:764–72.

Reifenberger G, Liu L, Ichimura K, Schmidt EE, Collins VP. Amplification and overexpression of the MDM2 gene in a subset of human malignant gliomas without p53 mutations. Cancer Rés. 199353:2736–9.

Verhaak RGW, Hoadley KA, Purdom E, Wang V, Qi Y, Wilkerson MD, Miller CR, Ding L, Golub T, Mesirov JP, et al. An integrated genomic analysis identifies clinically relevant subtypes of glioblastoma characterized by abnormalities in PDGFRA, IDH1, EGFR and NF1. Cellule cancéreuse. 201017:98.

Wang Q, Hu B, Hu X, Kim H, Squatrito M, Scarpace L, AC dC, Lyu S, Li P, Li Y, et al. Tumor evolution of glioma-intrinsic gene expression subtypes associates with immunological changes in the microenvironment. Cellule cancéreuse. 201732:42–56.e46.

Korber V, Yang J, Barah P, Wu Y, Stichel D, Gu Z, Fletcher MNC, Jones D, Hentschel B, Lamszus K, et al. Evolutionary trajectories of IDH (WT) glioblastomas reveal a common path of early tumorigenesis instigated years ahead of initial diagnosis. Cellule cancéreuse. 201935:692–704.e612.

Kim H, Zheng S, Amini SS, Virk SM, Mikkelsen T, Brat DJ, Grimsby J, Sougnez C, Muller F, Hu J, et al. Whole-genome and multisector exome sequencing of primary and post-treatment glioblastoma reveals patterns of tumor evolution. Génome Res. 201525:316–27.

Cuykendall TN, Rubin MA, Khurana E. Non-coding genetic variation in cancer. Curr Opin Syst Biol. 20171:9–15.

Lindblad-Toh K, Garber M, Zuk O, Lin MF, Parker BJ, Washietl S, Kheradpour P, Ernst J, Jordan G, Mauceli E, et al. A high-resolution map of human evolutionary constraint using 29 mammals. La nature. 2011478:476–82.

Davydov EV, Goode DL, Sirota M, Cooper GM, Sidow A, Batzoglou S. Identifying a high fraction of the human genome to be under selective constraint using GERP++. PLoS Comput Biol. 20106:e1001025.

RNAcentral: a hub of information for non-coding RNA sequences. Nucleic Acids Res 2019, 47:D1250-d1251.

Fishilevich S, Nudel R, Rappaport N, Hadar R, Plaschkes I, Iny Stein T, Rosen N, Kohn A, Twik M, Safran M, et al. GeneHancer: genome-wide integration of enhancers and target genes in GeneCards. Database (Oxford). 20172017:1–17.

Casper J, Zweig AS, Villarreal C, Tyner C, Speir ML, Rosenbloom KR, Raney BJ, Lee CM, Lee BT, Karolchik D, et al. The UCSC Genome Browser database: 2018 update. Acides nucléiques Res. 201846:D762–d769.

International Human Genome Sequencing C, Lander ES, Linton LM, Birren B, Nusbaum C, Zody MC, Baldwin J, Devon K, Dewar K, Doyle M, et al. Initial sequencing and analysis of the human genome. La nature. 2001409:860.

Raine KM, Van Loo P, Wedge DC, Jones D, Menzies A, Butler AP, Teague JW, Tarpey P, Nik-Zainal S, Campbell PJ. ascatNgs: identifying somatically acquired copy-number alterations from whole-genome sequencing data. Curr Protoc Bioinformatics. 201656:15.19.11–7.

Beroukhim R, Mermel CH, Porter D, Wei G, Raychaudhuri S, Donovan J, Barretina J, Boehm JS, Dobson J, Urashima M, et al. The landscape of somatic copy-number alteration across human cancers. La nature. 2010463:899–905.

Freire P, Vilela M, Deus H, Kim Y-W, Koul D, Colman H, Aldape KD, Bogler O, Yung WKA, Coombes K, et al. Exploratory analysis of the copy number alterations in glioblastoma multiforme. PLoS One. 20083:e4076.

Cibulskis K, Lawrence MS, Carter SL, Sivachenko A, Jaffe D, Sougnez C, Gabriel S, Meyerson M, Lander ES, Getz G. Sensitive detection of somatic point mutations in impure and heterogeneous cancer samples. Nat Biotechnol. 201331:213–9.

Saunders CT, Wong WS, Swamy S, Becq J, Murray LJ, Cheetham RK. Strelka: accurate somatic small-variant calling from sequenced tumor-normal sample pairs. Bioinformatique. 201228:1811–7.

Ramos AH, Lichtenstein L, Gupta M, Lawrence MS, Pugh TJ, Saksena G, Meyerson M, Getz G. Oncotator: cancer variant annotation tool. Hum Mutat. 201536:E2423–9.

Lawrence MS, Stojanov P, Polak P, Kryukov GV, Cibulskis K, Sivachenko A, Carter SL, Stewart C, Mermel CH, Roberts SA, et al. Mutational heterogeneity in cancer and the search for new cancer-associated genes. La nature. 2013499:214–8.

Grossman RL, Heath AP, Ferretti V, Varmus HE, Lowy DR, Kibbe WA, Staudt LM. Toward a shared vision for cancer genomic data. N Engl J Med. 2016375:1109–12.

Forbes SA, Bindal N, Bamford S, Cole C, Kok CY, Beare D, Jia M, Shepherd R, Leung K, Menzies A, et al. COSMIC: mining complete cancer genomes in the catalogue of somatic mutations in cancer. Acides nucléiques Res. 201139:D945–50. https://academic.oup.com/nar/article/39/suppl_1/D945/2508687.

Cerami E, Gao J, Dogrusoz U, Gross BE, Sumer SO, Aksoy BA, Jacobsen A, Byrne CJ, Heuer ML, Larsson E, et al. The cBio cancer genomics portal: an open platform for exploring multidimensional cancer genomics data. Cancer Discov. 20122:401–4.

Chang MT, Bhattarai TS, Schram AM, Bielski CM, Donoghue MTA, Jonsson P, Chakravarty D, Phillips S, Kandoth C, Penson A, et al. Accelerating discovery of functional mutant alleles in cancer. Cancer Discov. 20188:174–83.

Fan Y, Lee S, Wu G, Easton J, Yergeau D, Dummer R, Vogel P, Kirkwood JM, Barnhill RL, Pappo A, Bahrami A. Telomerase expression by aberrant methylation of the TERT promoter in melanoma arising in giant congenital nevi. J Invest Dermatol. 2016136:339–42.

Borah S, Xi L, Zaug AJ, Powell NM, Dancik GM, Cohen SB, Costello JC, Theodorescu D, Cech TR. Cancer. TERT promoter mutations and telomerase reactivation in urothelial cancer. Science (New York). 2015347:1006–10.

Heidenreich B, Rachakonda PS, Hosen I, Volz F, Hemminki K, Weyerbrock A, Kumar R. TERT promoter mutations and telomere length in adult malignant gliomas and recurrences. Oncocible. 20156:10617–33.

Forbes SA, Beare D, Gunasekaran P, Leung K, Bindal N, Boutselakis H, Ding M, Bamford S, Cole C, Ward S, et al. COSMIC: exploring the world’s knowledge of somatic mutations in human cancer. Acides nucléiques Res. 201543:D805–11.

Khurana E, Fu Y, Chakravarty D, Demichelis F, Rubin MA, Gerstein M. Role of non-coding sequence variants in cancer. Nat Rev Genet. 201617:93–108.

Battle A, Mostafavi S, Zhu X, Potash JB, Weissman MM, McCormick C, Haudenschild CD, Beckman KB, Shi J, Mei R, et al. Characterizing the genetic basis of transcriptome diversity through RNA-sequencing of 922 individuals. Génome Res. 201424:14–24.

Wittkopp PJ, Kalay G. Cis-regulatory elements: molecular mechanisms and evolutionary processes underlying divergence. Nat Rev Genet. 201113:59–69.

Albert FW, Kruglyak L. The role of regulatory variation in complex traits and disease. Nat Rev Genet. 201516:197–212.

Davis CA, Hitz BC, Sloan CA, Chan ET, Davidson JM, Gabdank I, Hilton JA, Jain K, Baymuradov UK, Narayanan AK, et al. L'Encyclopédie des éléments de l'ADN (ENCODE) : mise à jour du portail de données. Acides nucléiques Res. 201846:D794–d801.

Man J, Shoemake J, Zhou W, Fang X, Wu Q, Rizzo A, Prayson R, Bao S, Rich JN, Yu JS. Sema3C promotes the survival and tumorigenicity of glioma stem cells through Rac1 activation. Cell Rep. 20149:1812–26.

Thomas-Chollier M, Hufton A, Heinig M, O'Keeffe S, Masri NE, Roider HG, Manke T, Vingron M. Transcription factor binding predictions using TRAP for the analysis of ChIP-seq data and regulatory SNPs. Nat Protoc. 20116:1860–9.

Neubauer HA, Tea MN, Zebol JR, Gliddon BL, Stefanidis C, Moretti PAB, Pitman MR, Costabile M, Kular J, Stringer BW, et al. Cytoplasmic dynein regulates the subcellular localization of sphingosine kinase 2 to elicit tumor-suppressive functions in glioblastoma. Oncogene. 201938:1151–65.

Yap YL, Lam DC, Luc G, Zhang XW, Hernandez D, Gras R, Wang E, Chiu SW, Chung LP, Lam WK, et al. Conserved transcription factor binding sites of cancer markers derived from primary lung adenocarcinoma microarrays. Acides nucléiques Res. 200533:409–21.

Maunakea AK, Nagarajan RP, Bilenky M, Ballinger TJ, D'Souza C, Fouse SD, Johnson BE, Hong C, Nielsen C, Zhao Y, et al. Conserved role of intragenic DNA methylation in regulating alternative promoters. La nature. 2010466:253–7.

Wang Z, Yang B, Zhang M, Guo W, Wu Z, Wang Y, Jia L, Li S, Xie W, Yang D. lncRNA epigenetic landscape analysis identifies EPIC1 as an oncogenic lncRNA that interacts with MYC and promotes cell-cycle progression in cancer. Cellule cancéreuse. 201833:706–720.e709.

Bralten LBC, Gravendeel AM, Kloosterhof NK, Sacchetti A, Vrijenhoek T, Veltman JA, van den Bent MJ, Kros JM, Hoogenraad CC, Sillevis Smitt PAE, French PJ. The CASPR2 cell adhesion molecule functions as a tumor suppressor gene in glioma. Oncogene. 201029:6138.

Hu B, Wang Q, Wang YA, Hua S, Sauve CG, Ong D, Lan ZD, Chang Q, Ho YW, Monasterio MM, et al. Epigenetic activation of WNT5A drives glioblastoma stem cell differentiation and invasive growth. Cellule. 2016167:1281–1295.e1218.

Li X, Zhang H, Wu X. Long noncoding RNA DLX6-AS1 accelerates the glioma carcinogenesis by competing endogenous sponging miR-197-5p to relieve E2F1. Gene. 2019686:1–7.

Bozdag S, Li A, Riddick G, Kotliarov Y, Baysan M, Iwamoto FM, Cam MC, Kotliarova S, Fine HA. Age-specific signatures of glioblastoma at the genomic, genetic, and epigenetic levels. PLoS One. 20138:e62982.

Zhang C, Yang M, Li Y, Tang S, Sun X. FOXA1 is upregulated in glioma and promotes proliferation as well as cell cycle through regulation of cyclin D1 expression. Cancer Manag Res. 201810:3283–93.

Cheung AK, Lung HL, Ko JM, Cheng Y, Stanbridge EJ, Zabarovsky ER, Nicholls JM, Chua D, Tsao SW, Guan XY, Lung ML. Chromosome 14 transfer and functional studies identify a candidate tumor suppressor gene, mirror image polydactyly 1, in nasopharyngeal carcinoma. Proc Natl Acad Sci U S A. 2009106:14478–83.

Xiao Q, Sun Y, Dobi A, Srivastava S, Wang W, Srivastava S, Ji Y, Hou J, Zhao G-P, Li Y, Li H. Systematic analysis reveals molecular characteristics of ERG-negative prostate cancer. Sci Rep. 20188:12868.

Lee J, Lee AJ, Lee JK, Park J, Kwon Y, Park S, Chun H, Ju YS, Hong D. Mutalisk: a web-based somatic MUTation AnaLyIS toolKit for genomic, transcriptional and epigenomic signatures. Acides nucléiques Res. 201846:W102–w108.

Alexandrov LB, Nik-Zainal S, Wedge DC, Aparicio SA, Behjati S, Biankin AV, Bignell GR, Bolli N, Borg A, Borresen-Dale AL, et al. Signatures de processus mutationnels dans le cancer humain. La nature. 2013500:415–21.

Rands CM, Meader S, Ponting CP, Lunter G. 8.2% of the human genome is constrained: variation in rates of turnover across functional element classes in the human lineage. PLoS Genet. 201410:e1004525.

Koonin EV, Wolf YI. Constraints and plasticity in genome and molecular-phenome evolution. Nat Rev Genet. 201011:487.

Hui DHF, Tam KJ, Jiao IZF, Ong CJ. Semaphorin 3C as a therapeutic target in prostate and other cancers. Int J Mol Sci. 201920. https://www.mdpi.com/about/announcements/784.

Hao J, Yu JS. Semaphorin 3C and its receptors in cancer and cancer stem-like cells. Biomedicines. 20186. https://www.mdpi.com/about/announcements/784.

Smith AJ, Humphries SE. Characterization of DNA-binding proteins using multiplexed competitor EMSA. J Mol Biol. 2009385:714–7.

Lentjes MH, Niessen HE, Akiyama Y, de Bruine AP, Melotte V, van Engeland M. The emerging role of GATA transcription factors in development and disease. Expert Rev Mol Med. 201618:e3.

Zheng R, Blobel GA. GATA transcription factors and cancer. Genes Cancer. 20101:1178–88.

Wang Z, Yuan H, Sun C, Xu L, Chen Y, Zhu Q, Zhao H, Huang Q, Dong J, Lan Q. GATA2 promotes glioma progression through EGFR/ERK/Elk-1 pathway. Med Oncol. 201532:87.

Glimelius B, Melin B, Enblad G, Alafuzoff I, Beskow A, Ahlstrom H, Bill-Axelson A, Birgisson H, Bjor O, Edqvist PH, et al. U-CAN: a prospective longitudinal collection of biomaterials and clinical information from adult cancer patients in Sweden. Acta Oncol. 201857:187–94.

Xie Y, Bergström T, Jiang Y, Johansson P, Marinescu VD, Lindberg N, Segerman A, Wicher G, Niklasson M, Baskaran S, et al. The human glioblastoma cell culture resource: validated cell models representing all molecular subtypes. EBioMedicine. 20152:1351–63.

Li H, Durbin R. Fast and accurate short read alignment with Burrows-Wheeler transform. Bioinformatique. 200925:1754–60.

McKenna A, Hanna M, Banks E, Sivachenko A, Cibulskis K, Kernytsky A, Garimella K, Altshuler D, Gabriel S, Daly M, DePristo MA. The Genome Analysis Toolkit: a MapReduce framework for analyzing next-generation DNA sequencing data. Génome Res. 201020:1297–303.

Sherry ST, Ward MH, Kholodov M, Baker J, Phan L, Smigielski EM, Sirotkin K. dbSNP: the NCBI database of genetic variation. Acides nucléiques Res. 200129:308–11.

Ameur A, Dahlberg J, Olason P, Vezzi F, Karlsson R, Martin M, Viklund J, Kähäri AK, Lundin P, Che H, et al. SweGen: a whole-genome data resource of genetic variability in a cross-section of the Swedish population. Eur J Hum Genet. 201725:1253.

Sakthikumar S, Roy A, Haseeb L, Pettersson ME, Sundström E, Marinescu VD, Lindblad-Toh K, Forsberg-Nilsson, K. Whole genome sequencing of glioblastoma reveals enrichment of non-coding constraint mutations in known and novel genes. Dataset. European Genome-Phenome Archive. https://www.ega-archive.org. Accessed 3 June 2020.


Contenu

John F. Haught was born on November 12, 1942 to Paul and Angela Haught. His wife is Evelyn.

Haught graduated from St. Mary's Seminary and University in Baltimore in 1964 and subsequently received his PhD in theology from The Catholic University of America in Washington DC in 1968 (Dissertation: Foundations of the Hermeneutics of Eschatology). [1]

From 1969 to 2005 Haught taught in the Department of Theology at Georgetown University in Washington D.C., serving as theology department chair between 1990 and 1995. In addition, he has been a Landegger Distinguished Professor and Thomas Healey Distinguished Professor, and held the D’Angelo Chair in Humanities at St. John’s University (2008), and was visiting professor at the Pontifical Gregorian University in Rome (2010).

Inspiration and Influence Edit

In his early 20s, John Haught started reading the works of the Jesuit priest and geologist Pierre Teilhard de Chardin. As an undergraduate student at St. Mary’s Seminary and University, Haught had majored in philosophy and completed graduate work in philosophical theology, though he was never ordained. While teaching science and religion at Georgetown University and writing books on the topic, he specialized in the areas of cosmology and biology. During his studies, he concluded that Thomistic metaphysics could not adequately contextualize the discoveries of evolutionary biology and Big Bang physics. As the intellectual backbone of his courses, he turned to science-friendly 20th century philosophers such as Alfred North Whitehead, Michael Polanyi, Bernard Lonergan, and Hans Jonas. Ses livres Science and Religion: From Conflict to Conversation (1995) and more recently Science and Faith: a New Introduction (2012) reflect an approach developed over many years of teaching at Georgetown University.

During the 1990s, he became increasingly involved in issues relating to evolution, especially because of their growing importance in the intellectual world and the claims by creationists and prominent evolutionists alike that Darwinian science and belief in God are irreconcilable. The American cultural warfare over the teaching of Intelligent Design led Haught to write such books as God After Darwin, Deeper than Darwin, et Making Sense of Evolution. These and other works have led to numerous lectures on theology and evolution nationally and internationally. In his works, John Haught argues that an open-minded search for intelligibility requires a plurality of distinct “horizons of inquiry,” allowing for the harmonious cohabitation of science (including evolutionary biology) and religious belief. Haught views science and religion as two different and noncompeting levels of explanation, asserting that "science and religion cannot logically stand in a competitive relationship with each other." [2]

In 2005, Haught testified on behalf of the plaintiffs at the Harrisburg PA trial against the teaching of Intelligent Design in public schools. His testimony earned him the “Friend of Darwin” award from the National Center for Science Education.

Science and Religion Edit

John Haught’s lectures and works focus on a vision of reality that provides room for both scientific inquiry and a biblical understanding of God. In Haught’s perspective, everything should be open to scientific study, including human intelligence, ethical aspiration, and religion. Haught posits that science is one of many avenues to providing a fruitful understanding of nature since there are distinct and noncompeting levels of explaining all natural phenomena. By allowing for different reading levels, one can avoid the conflation of science and religion whereby physics spills into metaphysics, or evolutionary biology into a whole worldview. According to Haught, a major obstacle to adopting a plurality of reading levels is the persistence of biblical literalism which erroneously looks to the Bible as a source of scientific truth. In his view, approaching ancient religious texts with modern scientific expectations is the source of unnecessary and anachronistic confusion that makes the Bible, and the biblically based faith traditions, seem incompatible with modern science. In works, such as God and the New Atheism, Haught aims to show that Daniel Dennett, Christopher Hitchens, Richard Dawkins, and Jerry Coyne have adopted the same misplaced biblical literalism as their creationist opponents. Haught disputes the contention of New Atheists that God is a quasi-scientific hypothesis now rendered obsolete by modern cosmology, geology, and evolutionary biology. Emphasizing that science and theology represent two distinct horizons for looking at the story of life and the universe, Haught argues in his various lectures and writings that “it is the mission of a theology of nature to integrate them into a synthetic vision wherein differences do not dissolve but instead contribute in distinct ways to the larger and longer human quest for meaning and truth.” [ citation requise ]

Haught emphasizes that theology looks for levels of meaning and truth that scientific method is not wired to receive. “Theology has its own horizon of inquiry. It is grounded in a qualitatively distinct set of questions from those asked by scientists and ethicists. The data that give rise to distinctively theological questions include an easily recognizable set of beliefs and ethical commitments that do not show up within the horizon of scientific inquiry, but which every scientist must embrace in order to do science at all.

  • 1. Belief (faith or trust) that the world, including the horizon of scientific inquiry, is intelligible.
  • 2. Belief that truth is worth seeking.
  • 3. Belief that honesty, humility, generosity, and openness in sharing one’s ideas and discoveries are unconditionally right (and hence that the pursuit of virtue is not irrelevant to successful scientific work.)
  • 4. Belief that one’s own mind has the capacity to grasp intelligibility and to distinguish what is true from what is false.” [citation requise]

Recognition and awards Edit

Haught was the winner of the 2002 Owen Garrigan Award in Science and Religion and the 2004 Sophia Award for Theological Excellence. In 2009, in recognition of his work on theology and science, Haught was awarded the degree of Doctor Honoris Causa by the University of Louvain and the Friend of Darwin Award from the National Center for Science Education.

Peer Evaluations Edit

In the May 25 - June 1, 2015 issue of America: The National Catholic Review, Robert E. Lauder, Professor of Philosophy at St. John’s University, provided a review of John Haught’s works, including, What is God? How to Think About the Divine (1986), God After Darwin: A Theology of Evolution, and Mystery and Promise.

Other expert evaluations of the works of John Haught include Carter Phipps, the author of Evolutionaries: Unlocking the Spiritual and Cultural Potential of Science’s Greatest Idea (2012). Phipps’ article, “A Theologian of Renewal”, won a Gold Folio award for editorial excellence.

Dr. Haught’s latest book is The New Cosmic Story, Inside Our Awakening Universe (New Haven: Yale University Press, 2017) about the emergence of religious consciousness in the long cosmic process. https://yalebooks.yale.edu/book/9780300217032/new-cosmic-story Forbes Magazine called The New Cosmic Story the “Book of the year.” https://www.forbes.com/sites/johnfarrell/2017/12/31/book-of-the-year-the-new-cosmic-story/.

Haught testified as an expert witness for the plaintiffs in the case of Kitzmiller v. Dover Area School District. He testified that the effect of the intelligent design policy adopted by the Dover School board would "be to compel public school science teachers to present their students in biology class information that is inherently religious, not scientific in nature." [3] He also testified that materialism, the philosophy that only matter exists, is "a belief system, no less a belief system than is intelligent design. And as such, it has absolutely no place in the classroom, and teachers of evolution should not lead their students craftily or explicitly to . feel that they have to embrace a materialistic world-view in order to make sense of evolution." [4]

Haught has participated in several public debates about the compatibility of science and religion, sharing the stage with Daniel Dennett at the City University of New York in 2009, [5] Kenneth Miller at the New York Academy of Sciences in 2011, [6] and Jerry Coyne at the University of Kentucky in 2011. [7] [8] After agreeing to be taped for his debate with Coyne, [9] Haught attempted to block release of the videos, objecting primarily to what he saw as ad hominem attacks and personal ridicule by Coyne. Coyne called Haught's action the "cowardly and intellectually dishonest actions of a theologian". [9] After a strong public reaction, [10] Haught agreed to the release of the video so long as Coyne posted Haught's letter of explanation along with it. [7] [11] Taking issue in the letter with Coyne's characterization, Haught's opposition to the release and Coyne's final list of Catholic "evils" as a way to end the presentation, Haught explained that he sought to "protect the public from such a preposterous and logic-offending … presentation." [12]


Coronal mass ejections and cosmic ray observations at Syowa Station

Solar activities, such as CME(Coronal Mass Ejection), cause geomagnetic storms that disturb the Earth's magnetosphere. Geomagnetic storms can affect GPS positioning, radio communication, and power transmission system. Solar explosions also emit radiation, which can cause satellite failures, radiation exposure to aircraft crew, and space activity. Therefore, it is important to understand space weather phenomena and their impact on the Earth.

Space weather research by continuous observation of cosmic rays on the ground is mainly conducted using observation data from neutron monitors and multi-directional muon detectors. Since the phenomenon of space weather is on a short-term, days-long scale, it is effective to investigate changes in the flow of cosmic rays for several hours, which requires a total-sky monitor of cosmic rays.

The global muon detector network (GMDN) has been observing space weather phenomena since 2006, and the Spaceship Earth project constitutes a similar observation network and the role of the all-sky monitor for neutrons. Until now, observations by neutron monitors and muon detectors have been performed independently.

In February 2018, Professor Chihiro Kato of Shinshu University took the lead in acquiring simultaneous observations of the neutron monitor and muon detector at Syowa Station in the Antarctic in order to acquire bridging data. In the polar regions, unlike low latitude regions on the earth, it is possible to observe cosmic rays coming from the same direction with a neutron monitor and a muon detector due to the weaker deflection by geomagnetism. This is the reason why Syowa Station was selected as the observation point.

Syowa muon detector and neutron monitor observed small fluctuation in CR count like a Forbush decrease on 2018.8. The research group including researchers from Shinshu University and the National Polar Research Institute found curious cosmic-ray density variation on this event by analyzing GMDN data.

On the CME event, a huge amount of coronal material released with a bundle of the solar magnetic field, called Magnetic Flux Rope (MFR), into the interplanetary space. MFR moves through interplanetary space while expanding. CR density is low inside of it because it is originally coronal material. When the earth enters the MFR, CR counts on the ground decreases. This is called Forbush Decrease.

Normally, when MFR arrives on Earth, CR density observed at the ground level decreases rapidly, and then turns to increase recovering to the original level while the earth is in the MFR. On this event, however, the CR exceeded the original level before the earth exited the MFR.

This event attracts interest from researchers because 1) The solar activity is currently near the minimum and the scale of the event itself is small, 2) It causes a disproportionately large geomagnetic storm, and 3) There is high-speed solar wind catching up the MFR expected to interact with it.

By analysis of the GMDN and solar plasma data, the team concluded that the high-speed solar wind causes the unusual enhancement of the CR density by compressing the rear part of the MFR locally.

Cosmic ray observation data is closely related to space weather research and to atmospheric phenomena such as sudden stratospheric temperature rise, and is expected to be used in a wide range of fields in the future.


Command Line Interface

If you need to run the SeqTools program in a 'headless' way (without a graphical interface), you can run the command line interface (CLI) version of the programs seqtools_dge et seqtools_vc from a terminal. First open a terminal (keyboard binding is Ctrl+Alt+t) and cd to the directory containing seqtools_dge or seqtools_vc. A full list of arguments can be found by adding '-h' argument after the command:

This program was built using GCC. The executable file should be able to run on most x64 Linux distributions.


Voir la vidéo: Les étoiles sont-elles déjà mortes? - Image #6 (Janvier 2022).