176 liens privés
On pense que la rotation différentielle du noyau interne de la Terre par rapport au manteau se produit sous l'effet de la géodynamo sur la dynamique du noyau et du couplage gravitationnel noyau-manteau. Cette rotation a été déduite des changements temporels entre les ondes sismiques répétées qui devraient parcourir le même chemin à travers le noyau interne. Nous analysons ici les ondes sismiques répétées du début des années 1990 et montrons que toutes les trajectoires qui présentaient précédemment des changements temporels significatifs ont peu changé au cours de la dernière décennie. Ce schéma globalement cohérent suggère que la rotation du noyau interne s'est récemment interrompue. Nous avons comparé ce modèle récent aux enregistrements sismiques de l'Alaska des doublets des îles Sandwich du Sud remontant à 1964 et il semble être associé à un retour progressif du noyau interne dans le cadre d'une oscillation d'environ sept décennies, avec un autre point d'inflexion au début des années 1970. Cette périodicité multidécennale coïncide avec des changements dans plusieurs autres observations géophysiques, notamment la longueur du jour et le champ magnétique. Ces observations fournissent des preuves d'interactions dynamiques entre les couches de la Terre, de l'intérieur le plus profond à la surface, potentiellement dues au couplage gravitationnel et à l'échange de moment angulaire du noyau et du manteau vers la surface.
Des analyses spectroscopiques intégrées et des investigations par microdiffraction des rayons X synchrotron permettent de mieux comprendre la réactivité à long terme des composants des agrégats volcaniques et du liant calcium-aluminium-silicate-hydrate (C-A-S-H) dans les échantillons de mortier provenant du béton robuste du couloir sépulcral de la tombe de Caecilia Metella, 1er siècle avant Jésus-Christ, Rome. Les résultats de cartes analytiques innovantes à l'échelle micrométrique indiquent que les composants du téphra de Pozzolane Rosse - masse broyée de scorie, clinopyroxène et cristaux de leucite - ont contribué à la production pouzzolanique du liant C-A-S-H et sont restés réactifs longtemps après que la chaux hydratée (Ca(OH)2) ait été entièrement consommée. La phase de liaison C-A-S-H est réorganisée en halos sinueux et en brins semblables à des vrilles, dont certains présentent une orientation préférentielle nanocristalline ou, au contraire, sont divisés en éléments allongés avec des chaînes de silicate de courte longueur. Ces microstructures enregistrent apparemment la déstabilisation chimique et structurelle de la C-A-S-H pendant l'incorporation excessive d'Al3+ et de K+ libérés par la dissolution de la leucite. La résistance à la rupture peut résulter du durcissement intermittent des zones interfaciales de scories et de cristaux de clinopyroxène avec des ciments minéraux post-pozzolaniques de strätlingite et d'Al-tobermorite et du remodelage à long terme de la phase de liaison pouzzolanique C-A-S-H. La sélection par les constructeurs romains d'un faciès riche en leucite du téphra de Pozzolane Rosse comme agrégat et la construction de la tombe dans un environnement fortement exposé aux eaux de surface et souterraines ont apparemment augmenté l'activité hydrologique bénéfique et la réactivité du béton.
Les bétons romains antiques ont survécu à des millénaires, mais la compréhension mécaniste de leur durabilité reste une énigme. Ici, nous utilisons une approche de cartographie élémentaire et chimique corrélative multi-échelle pour étudier les clastes de chaux reliques, un composant minéral omniprésent et visible associé aux anciens mortiers romains. Ensemble, ces analyses fournissent de nouvelles informations sur les méthodologies de préparation des mortiers et prouvent que les Romains utilisaient le mélange à chaud, en utilisant de la chaux vive en conjonction avec, ou à la place de, la chaux éteinte, pour créer un environnement où les clastes de chaux de grande surface sont retenus dans la matrice du mortier. Inspirés par ces résultats, nous proposons que ces inclusions macroscopiques puissent servir de sources critiques de calcium réactif pour le remplissage à long terme des pores et des fissures ou la réactivité post-pozzolanique dans les constructions cimentaires. Le développement et les essais ultérieurs de mélanges cimentaires modernes contenant des clastes de chaux démontrent leur potentiel d'auto-guérison, ouvrant ainsi la voie au développement de formulations de béton plus durables, plus résilientes et plus soutenables.
Des limites strictes et des stratégies de réduction des émissions de gaz à effet de serre (GES) sont définies à différents niveaux pour la stabilisation de la température à long terme. Étant donné la relation quasi linéaire entre le réchauffement et les émissions nettes cumulées, une approche fondée sur un budget carbone est nécessaire pour limiter le réchauffement de la planète, comme l'indique le GIEC.
Dans ce contexte, l'environnement bâti, en tant que domaine d'activité transsectoriel et transnational, joue un rôle crucial dans les émissions de carbone actuelles et les potentiels de réduction futurs. Des recherches antérieures ont montré la nécessité d'établir des objectifs carbone efficaces et harmonisés pour soutenir et guider tous les acteurs du secteur de la construction vers ces objectifs mondiaux ambitieux.
Dans ce contexte, des recherches antérieures ont comparé les budgets carbone dérivés de haut en bas pour l'environnement bâti suisse avec une estimation préliminaire des futures émissions cumulées du secteur. Les résultats ont montré le décalage entre les meilleures pratiques actuelles et l'ampleur des efforts qui seraient nécessaires pour se conformer à ces objectifs. Néanmoins, des limites sont apparues dans le travail préliminaire, comme le manque de dynamicité des paramètres inclus dans le modèle, ce qui limite la représentativité de ses résultats.
Le présent article approfondit ces travaux antérieurs en intégrant l'évolution dynamique de l'approvisionnement en énergie, de la production de matériaux et du taux de rénovation. Les résultats sont ensuite présentés au moyen d'un graphique interactif à coordonnées parallèles. Ce composant interactif permet l'exploration paramétrique du respect de budgets globaux limités en faisant varier les paramètres d'entrée.
De cette façon, l'influence des stratégies macroéconomiques de décarbonisation du parc immobilier suisse peut facilement être visualisée en référence aux budgets carbone du GIEC. En définitive, l'outil interactif disponible pourrait aider les décideurs politiques dans les décisions prises au niveau du parc immobilier.
Points forts
- Ce document démêle les effets durables des améliorations techniques de l'efficacité énergétique dans les bâtiments résidentiels du Royaume-Uni.
- L'article analyse un large panel de données au niveau des ménages britanniques en utilisant une méthode quasi-expérimentale de différences dans les différences.
- L'installation de mesures d'efficacité énergétique est associée à des réductions à court terme de la consommation de gaz résidentielle.
- Les économies d'énergie disparaissent entre deux et quatre ans après l'installation de mesures d'isolation des combles et des murs creux, respectivement.
- L'installation de mesures d'efficacité n'est pas associée à des économies d'énergie dans les ménages des zones défavorisées.
Résumé
L'amélioration de l'efficacité énergétique (EE) est essentielle pour garantir un système énergétique durable, abordable et sûr. Le secteur résidentiel représente, en moyenne, 18,6 % de la consommation finale totale d'énergie dans les pays de l'OCDE en 2018, atteignant 29,5 % au Royaume-Uni (AIE, 2020a).
En utilisant une approche de différences en différences échelonnées avec des effets de traitement dynamiques, nous analysons les changements dans la consommation de gaz résidentielle cinq ans avant et après l'adoption de mesures d'efficacité énergétique. L'analyse inclut les interventions d'efficacité énergétique impliquant l'installation de nouveaux équipements d'isolation liés au chauffage - c'est-à-dire l'isolation des combles et des murs creux, soutenus par des programmes d'efficacité énergétique en Angleterre et au Pays de Galles entre 2005 et 2017 - en utilisant un panel de 55 154 ménages issus du National Energy Efficiency Data-Framework (NEED).
Nous contrôlons, entre autres facteurs, les prix de l'énergie et la mesure dans laquelle les changements de consommation de gaz dépendent des caractéristiques des ménages et des variations des conditions météorologiques.
Nos résultats indiquent que l'adoption de mesures d'EE est associée à des réductions significatives de la consommation de gaz résidentiel des ménages un an après leur mise en œuvre. Toutefois, cet effet ne dure pas à long terme et les économies d'énergie disparaissent quatre ans après la mise en œuvre de mesures d'isolation des murs creux et deux ans après l'installation d'une isolation des combles.
La disparition des économies d'énergie à long terme pourrait s'expliquer par l'écart de performance énergétique, l'effet de rebond et/ou par des projets de construction et de rénovation résidentielle concomitants associés à une augmentation de la consommation d'énergie. Notamment, pour les ménages des zones défavorisées, l'installation de ces mesures d'efficacité ne permet pas de réaliser des économies d'énergie.
Ces résultats confirment l'existence d'effets qui réduisent les économies d'énergie résultant de l'adoption de ces technologies d'efficacité au fil du temps et indiquent que, pour certains groupes, ces économies nettes ne semblent pas se matérialiser.
La théorie astronomique du climat est importante pour le développement durable de la civilisation. L'enthousiasme des scientifiques intéressés a maintenu l'idée de la théorie en vie pendant des décennies de doute. Cependant, le danger vient du rôle exagéré des mathématiques. Nous pouvons trouver la physique derrière les mathématiques avec l'introduction de la mécanique céleste vortique et de la thermodynamique vortique. Les trois niveaux de la théorie du climat astronomique - celui de Croll/Milankovitch/Berger, celui de Blizard/Landscheidt/Charvátová et le niveau galactique - sont abordés ici en bref du point de vue de la mécanique céleste de DesCartes et des phénomènes d'influences cosmiques à longue portée.
Published: 15 December 2021
Babatunde J. Abiodun, Romaric C. Odoulami, Windmanagda Sawadogo, Olumuyiwa A. Oloniyo, Abayomi A. Abatan, Mark New, Christopher Lennard, Pinto Izidine, Temitope S. Egbebiyi & Douglas G. MacMartin
Résumé
La plupart des activités socio-économiques en Afrique dépendent des bassins fluviaux du continent, mais la gestion efficace des risques de sécheresse sur les bassins en réponse au changement climatique reste un grand défi.
Alors que des études ont montré que l'injection d'aérosols stratosphériques (SAI) pourrait atténuer les impacts du changement climatique liés à la température sur l'Afrique, il y a un manque d'informations sur la façon dont l'intervention SAI pourrait influencer les caractéristiques de la sécheresse et la gestion des risques de sécheresse dans les bassins fluviaux.
La présente étude examine donc les impacts potentiels du changement climatique et de l'intervention SAI sur les sécheresses et la gestion des sécheresses dans les principaux bassins fluviaux d'Afrique. Des ensembles de données de simulation climatique multiensemble provenant du projet GLENS (Stratospheric Aerosol Geoengineering Large Ensemble) ont été analysés pour cette étude.
L'indice standardisé d'évapotranspiration des précipitations (SPEI) et l'indice standardisé de précipitation (SPI) ont été utilisés pour caractériser les limites supérieures et inférieures de la gravité des sécheresses futures, respectivement, dans les bassins. Le SPEI est une fonction des précipitations et de l'évapotranspiration potentielle, tandis que le SPI est uniquement une fonction des précipitations, de sorte que la différence entre les deux indices est influencée par la demande évaporative atmosphérique.
Les résultats de l'étude montrent que, bien que l'intervention de l'ISC, telle que simulée dans GLENS, puisse compenser les impacts du changement climatique sur la température et la demande évaporative atmosphérique, le niveau d'ISC qui compense le changement de température surcompenserait les impacts sur les précipitations et imposerait donc un déficit du bilan hydrique climatique dans les tropiques.
L'indice SAI réduirait les écarts entre les projections SPEI et SPI sur les bassins en réduisant la fréquence des sécheresses SPEI grâce à la réduction de la température et de la demande d'évaporation atmosphérique, tout en augmentant la fréquence des sécheresses SPI grâce à la réduction des précipitations.
La réduction de cet écart diminue le niveau d'incertitude concernant les changements futurs de la fréquence des sécheresses, mais a néanmoins des implications pour la gestion future des sécheresses dans les bassins, car si l'indice SAI abaisse la limite supérieure de la contrainte de sécheresse future, il augmente également la limite inférieure de la contrainte de sécheresse.
L'allumage est nécessaire pour faire de l'énergie de fusion une source d'énergie alternative viable, mais il n'a pas encore été réalisé1. Une étape clé sur la voie de l'allumage consiste à faire en sorte que l'énergie générée par les réactions de fusion dans un plasma de fusion confiné par l'inertie dépasse la quantité d'énergie déposée dans le combustible de fusion deutérium-tritium et dans le point chaud pendant le processus d'implosion, ce qui se traduit par un gain de combustible supérieur à l'unité. Nous rapportons ici l'obtention de gains de combustible de fusion supérieurs à l'unité sur l'installation nationale d'allumage des États-Unis en utilisant une méthode d'implosion " à pied haut "2,3, qui consiste à manipuler la forme de l'impulsion laser de manière à réduire l'instabilité de l'implosion. Ces expériences montrent une amélioration d'un ordre de grandeur du rendement par rapport aux expériences d'implosion deutérium-tritium précédentes. Nous constatons également une contribution significative au rendement de l'auto-échauffement des particules α et des preuves de l'amorçage nécessaire pour accélérer la combustion de fusion du deutérium et du tritium afin qu'elle finisse par s'emballer et s'enflammer.
O. A. Hurricane, D. A. Callahan, D. T. Casey, P. M. Celliers, C. Cerjan, E. L. Dewald, T. R. Dittrich, T. Döppner, D. E. Hinkel, L. F. Berzak Hopkins, J. L. Kline, S. Le Pape, T. Ma, A. G. MacPhee, J. L. Milovich, A. Pak, H.-S. Park, P. K. Patel, B. A. Remington, J. D. Salmonson, P. T. Springer & R. Tommasini
Published: 12 February 2014
À la suite de l'accord historique de 2015 des Nations unies, l'Accord de Paris, un nombre croissant de pays s'engagent dans la transition vers des émissions nettes nulles. Le captage et le stockage du carbone (CSC) ont été constamment mis en avant pour lutter directement contre les émissions des secteurs énergétique et industriel et constituent un élément important des plans visant à atteindre l'objectif "zéro émission nette". Cependant, malgré l'importance cruciale de cette technologie et l'ampleur des travaux de recherche et développement réalisés à ce jour, le déploiement du CSC a été lent. La présente étude examine les efforts de déploiement déployés au cours de la dernière décennie. Nous révélons que le déploiement des installations doit augmenter considérablement par rapport aux niveaux actuels, et qu'il reste beaucoup à faire pour maximiser le stockage du CO2 dans les vastes réserves souterraines. Au rythme actuel de déploiement, la capacité de stockage du CO2 en 2050 devrait être d'environ 700 millions de tonnes par an, soit seulement 10 % de ce qui est nécessaire. Il semble peu probable que l'on puisse atteindre les objectifs de réduction nette des émissions grâce au CSC, à moins de coordonner les efforts au niveau mondial et de modifier rapidement les politiques.
Dans cet article, nous approfondissons nos recherches précédentes sur le potentiel d'abus des modèles génératifs de langage en évaluant GPT-3. En expérimentant avec des invites représentatives de différents types de récits extrémistes, de structures d'interaction sociale et d'idéologies radicales, nous constatons que GPT-3 démontre une amélioration significative par rapport à son prédécesseur, GPT-2, dans la génération de textes extrémistes. Nous montrons également la force de GPT-3 dans la génération de textes qui émulent avec précision le contenu interactif, informationnel et influent qui pourrait être utilisé pour radicaliser les individus vers des idéologies et des comportements violents d'extrême droite. Bien que les mesures préventives d'OpenAI soient solides, la possibilité d'une technologie copiée non réglementée représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle ; ainsi, en l'absence de mesures de protection, une militarisation réussie et efficace nécessitant peu d'expérimentation est probable. Les acteurs de l'IA, la communauté des décideurs et les gouvernements devraient commencer à investir dès que possible dans l'élaboration de normes sociales, de politiques publiques et d'initiatives éducatives afin de prévenir un afflux de désinformation et de propagande générées par des machines. Les mesures d'atténuation nécessiteront des politiques et des partenariats efficaces entre l'industrie, le gouvernement et la société civile.
Pour réussir, un scientifique doit bien écrire. Il existe de nombreux conseils sur la rédaction d'articles qui suivent la structure classique Introduction, Méthodes, Résultats et Discussion (IMRaD). Nous comblons ici une lacune importante dans ce canon pédagogique. Nous proposons des conseils pour développer une bonne histoire scientifique. Cette compétence précieuse, mais souvent mal acquise, peut augmenter l'impact d'une étude et ses chances d'être acceptée. Une histoire scientifique va au-delà de la présentation d'informations. Il s'agit d'un récit cohérent qui engage le lecteur en présentant et en résolvant un problème, avec un début, un milieu et une fin. Pour créer cette structure narrative, nous conseillons vivement aux rédacteurs d'envisager de commencer par la fin de leur étude, en commençant par rédiger leurs principales conclusions, qui constituent la base de la Discussion, puis de travailler à rebours : Résultats → Méthodes → affiner la Discussion → Introduction → Résumé → Titre. Dans cet éditorial bref et informel, nous offrons des conseils à un large public, allant des étudiants de premier cycle (qui viennent de mener leur premier projet de recherche) aux scientifiques chevronnés (qui pourraient bénéficier d'une refonte de leur approche de la rédaction). Pour ce faire, nous fournissons des instructions spécifiques, des exemples et un guide de la littérature sur la manière d'"écrire à l'envers", en reliant la narration scientifique à la structure IMRaD.
Récemment, un nouveau paradigme de construction de modèles de langage à usage général (par exemple, Bert de Google et GPT-2 d'OpenAI) dans le traitement du langage naturel (TLN) pour l'extraction de caractéristiques textuelles, une procédure standard dans les systèmes de TLN qui convertit les textes en vecteurs (c.-à-d., embeddings) pour la modélisation en aval, est apparu et commence à trouver son application dans diverses tâches de TLN en aval et dans des systèmes du monde réel (par exemple, le moteur de recherche de Google [6]). Pour obtenir des intégrations de texte à usage général, ces modèles de langage ont des architectures très complexes avec des millions de paramètres apprenables et sont généralement pré-entraînés sur des milliards de phrases avant d'être utilisés. Comme il est largement reconnu, une telle pratique améliore effectivement les performances de pointe de nombreuses tâches NLP en aval. Cependant, cette utilité accrue n'est pas gratuite. Nous constatons que les incorporations de texte provenant de modèles de langage à usage général capturent de nombreuses informations sensibles dans le texte brut. Une fois que l'adversaire y a accédé, les incorporations peuvent faire l'objet d'une ingénierie inverse pour divulguer des informations sensibles sur les victimes afin de les harceler davantage. Bien qu'un tel risque d'atteinte à la vie privée puisse constituer une menace réelle pour l'utilisation future de ces outils NLP prometteurs, il n'existe pas à ce jour d'attaques publiées ni d'évaluations systématiques pour les modèles de langage courants au niveau industriel. Pour combler cette lacune, nous présentons la première étude systématique sur les risques d'atteinte à la vie privée de 8 modèles de langage de pointe avec 4 études de cas diverses. En construisant deux nouvelles classes d'attaques, notre étude démontre que les risques de confidentialité susmentionnés existent bel et bien et peuvent imposer des menaces pratiques à l'application de modèles de langage à usage général sur des données sensibles couvrant l'identité, le génome, les soins de santé et la localisation. Par exemple, nous montrons que l'adversaire, qui n'a pratiquement aucune connaissance préalable, peut atteindre une précision d'environ 75 % lorsqu'il déduit le site précis de la maladie à partir de l'intégration de Bert dans les descriptions médicales des patients. Comme contre-mesures possibles, nous proposons 4 défenses différentes (via l'arrondi, la confidentialité différentielle, l'entraînement de l'adversaire et la projection de sous-espace) pour obscurcir les incorporations non protégées à des fins d'atténuation. Grâce à des évaluations approfondies, nous fournissons également une analyse préliminaire sur le compromis utilité/confidentialité apporté par chaque défense, ce qui, nous l'espérons, pourra encourager les recherches futures sur l'atténuation.
La recherche de diagnostics, de vaccins et de traitements potentiels à base d'anticorps pour le coronavirus 2 du syndrome respiratoire aigu sévère pandémique (SRAS-CoV-2) s'est concentrée presque exclusivement sur les protéines spike (S) et nucléocapside (N). Les protéines de la membrane du coronavirus (M), ORF3a et ORF8 sont des immunogènes humoraux chez d'autres coronavirus (CoVs) mais restent largement inexplorées pour le SRAS-CoV-2. Nous utilisons ici la cartographie de microréseaux peptidiques ultradenses pour montrer que l'infection par le SRAS-CoV-2 induit des réponses anticorps robustes contre des épitopes dans l'ensemble du protéome du SRAS-CoV-2, en particulier chez M, où un épitope a permis d'obtenir une excellente précision diagnostique. Nous avons cartographié 79 épitopes des lymphocytes B dans l'ensemble du protéome du SRAS-CoV-2 et démontré que les anticorps qui se développent en réponse à l'infection par le SRAS-CoV-2 se lient à des séquences peptidiques homologues dans les 6 autres CoV humains connus. Nous confirmons également la réactivité contre 4 de nos épitopes les plus importants par un test immuno-enzymatique (ELISA). La gravité de la maladie est corrélée à une augmentation de la réactivité à 9 épitopes du CoV SRAS-2 dans S, M, N et ORF3a dans notre population. Nos résultats démontrent l'existence d'épitopes de cellules B hautement réactifs, inconnus jusqu'alors, dans l'ensemble du protéome du SRAS-CoV-2 et d'autres protéines du CoV.
Les rituels sociaux faisant généralement intervenir des sons, la compréhension archéologique d'un site nécessite une évaluation de l'acoustique. Cet article démontre comment cela peut être fait avec des modèles acoustiques à l'échelle. La modélisation à l'échelle est une méthode établie en acoustique architecturale, mais elle n'a pas été appliquée auparavant aux monuments préhistoriques. Le modèle de Stonehenge décrit ici permet de quantifier l'acoustique à la fin du Néolithique et au début de l'âge du bronze et de déduire les effets sur les sons musicaux et la parole. Il a été constaté que les réflexions des pierres créent un temps de réverbération moyen à la fréquence moyenne de (0,64 ± 0,03) secondes et une amplification de (4,3 ± 0,9) dB pour la parole. Le modèle a une représentation plus précise de la géométrie préhistorique, donnant un temps de réverbération nettement supérieur à celui mesuré dans la ruine actuelle et dans une réplique en béton grandeur nature à Maryhill, aux États-Unis. L'amplification a pu faciliter la communication vocale et la réverbération a amélioré les sons musicaux. Le mode d'utilisation de Stonehenge fait l'objet de nombreux débats, mais ces résultats montrent que les sons étaient améliorés à l'intérieur du cercle par rapport à l'extérieur. Stonehenge présentait différentes configurations, notamment en ce qui concerne la position des pierres bleues. Cependant, cela a apporté des changements inaudibles à l'acoustique, ce qui suggère que le son n'est probablement pas la motivation sous-jacente des différentes dispositions.
En 2006, les auteurs ont lancé le projet Landscape & Perception (L&P) sous l'égide du Royal College of Art (RCA) de Londres. Le projet est une étude pilote d'éléments visuels et acoustiques bruts, principalement sur et autour de la crête de Carn Menyn, Mynydd Preseli, dans le sud-ouest du Pays de Galles, la zone d'origine de certaines des pierres bleues de Stonehenge, une zone encore relativement intacte par le développement moderne. Des sites dans la campagne environnante du Pembrokeshire ont également été brièvement visités. Le projet posait la question suivante : "Qu'est-ce que les yeux et les oreilles de l'âge de pierre ont pu percevoir dans ce paysage, et quels aspects l'ont fait devenir important pour les bâtisseurs de Stonehenge ?". Le projet L&P a été conçu principalement pour encourager une jeune génération de praticiens de l'audiovisuel à utiliser des sources sensorielles directes et naturelles pour leurs travaux numériques, afin de contrebalancer la surutilisation croissante de sources numériques désincarnées. Au cours du travail de terrain, il a été estimé que des observations avaient été faites qui pourraient peut-être être archéologiquement pertinentes dans un paysage qui, jusqu'à très récemment, a été soumis à une étude archéologique étonnamment faible. En juillet 2013, la partie travail de terrain du projet s'est étendue aux tests acoustiques des pierres bleues in situ à Stonehenge. Cet article est un rapport préliminaire concernant des aspects sélectionnés, potentiellement pertinents sur le plan archéologique, du travail de terrain du projet à ce jour.
Le but de cette étude est de comprendre comment le toisement (psychologique ou physique) typique de la personne méprisante se traduit dans les échanges en ligne. Nos données proviennent de conversations focalisées sur la loi Buzyn de 2018 concernant onze vaccins obligatoires pour les nourrissons de deux mois. Les stratégies argumentatives identifiées dans les commentaires jugés méprisants permettent de conclure à la prééminence de contenus polarisant et d’une tonalité sarcastique, construits en particulier à l’aide de stratégies de discrédit. Le sarcasme en particulier concourt au jugement méprisant, affirmant une relation asymétrique alliée à un manque de respect, relation que nous avons proposée être au cœur du mépris.
La réalisation d'un processus de transfert d'électrons efficace dans la réaction d'évolution de l'oxygène en modifiant les états électroniques autour du niveau de Fermi est cruciale pour le développement d'électrocatalyseurs performants et robustes. Généralement, le transfert d'électrons se déroule uniquement par le biais d'une chimie redox métallique (un mécanisme d'évolution de l'adsorbat (AEM), avec des bandes métalliques autour du niveau de Fermi) ou d'une chimie redox de l'oxygène (un mécanisme d'oxydation de l'oxygène du réseau (LOM), avec des bandes d'oxygène autour du niveau de Fermi), sans l'occurrence simultanée des deux chimies redox du métal et de l'oxygène dans la même voie de transfert d'électrons.
Nous rapportons ici un mécanisme de transfert d'électrons qui implique une chimie redox de métal et d'oxygène commutable dans des matériaux à base de nickel-oxyhydroxyde avec la lumière comme déclencheur. Contrairement à l'AEM et au LOM traditionnels, le mécanisme proposé d'évolution couplée de l'oxygène déclenché par la lumière exige que la cellule unitaire subisse une conversion géométrique réversible entre l'octaèdre (NiO6) et le plan carré (NiO4) pour atteindre des états électroniques (autour du niveau de Fermi) avec des caractères alternatifs de métal et d'oxygène tout au long du processus d'évolution de l'oxygène. L'utilisation de cette voie de transfert d'électrons permet de contourner les étapes potentiellement limitantes, à savoir la liaison oxygène-oxygène dans l'AEM et la déprotonation dans le LOM.
Par conséquent, les électrocatalyseurs qui fonctionnent par cette voie présentent une activité supérieure à celle des électrocatalyseurs rapportés précédemment. Ainsi, on s'attend à ce que le mécanisme couplé d'évolution de l'oxygène proposé, déclenché par la lumière, ajoute une couche de compréhension à la scène de la recherche sur l'évolution de l'oxygène.
La question de savoir comment le climat de la Terre est stabilisé à des échelles de temps géologiques est importante pour comprendre l'histoire de la Terre, les conséquences à long terme du changement climatique anthropique et l'habitabilité des planètes. Ici, nous quantifions l'amplitude typique des fluctuations passées de la température globale sur des échelles de temps allant de centaines à des dizaines de millions d'années et nous l'utilisons pour évaluer la présence ou l'absence de rétroactions stabilisatrices à long terme dans le système climatique. Sur des échelles de temps comprises entre 4 et 400 ka, les fluctuations n'augmentent pas avec l'échelle de temps, ce qui suggère que des mécanismes stabilisateurs tels que l'hypothétique "rétroaction de l'altération" ont exercé un contrôle dominant dans ce régime. Les fluctuations augmentent sur des échelles de temps plus longues, potentiellement en raison de changements d'origine tectonique ou biologique qui font que l'altération agit comme un forçage climatique et une rétroaction. Ces fluctuations plus lentes ne montrent aucun signe d'amortissement, ce qui implique que le hasard peut encore avoir joué un rôle non négligeable dans le maintien de l'habitabilité à long terme de la Terre.
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.129.130601
Un bruit de fond trop important a généralement pour effet de perturber le travail. Mais des physiciens ont mis au point un moteur à micro-échelle, fabriqué à partir d'une bille de verre, qui peut non seulement résister à l'influence distrayante du bruit, mais aussi l'exploiter pour fonctionner efficacement. Leur expérience est rapportée dans la revue Physical Review Letters et a été sélectionnée par la revue comme un point fort de la recherche.
Dans la vie de tous les jours, nous connaissons les moteurs qui consomment du carburant pour se déplacer de manière dirigée et effectuer ainsi un travail utile. Mais les choses sont plus compliquées dans le monde microscopique, où le bruit sous forme de chaleur peut facilement faire capoter les choses.
"La chaleur fait que les composants des petites machines s'agitent en permanence", explique l'auteur principal, John Bechhoefer, physicien quantique à l'université Simon Fraser de Burnaby, en Colombie-Britannique, et membre du Foundational Questions Institute, FQXi, un groupe de réflexion sur la physique. Habituellement, ce bruit thermique dû à la chaleur de l'environnement a pour effet de réduire la quantité de travail utile qu'un petit moteur peut produire.
Mais il existe une famille spéciale de machines microscopiques, appelées "moteurs d'information", qui peuvent réellement exploiter le bruit pour se déplacer de manière dirigée. Un moteur d'information agit en mesurant les petits mouvements causés par la chaleur et en utilisant ces informations pour renforcer sélectivement les mouvements qui vont dans le "bon" sens, dans la direction requise par la machine.
"Un moteur d'information est une machine qui convertit l'information en travail", explique M. Bechhoefer.
Les physiciens et les ingénieurs sont enthousiastes à l'idée de construire de tels moteurs minuscules capables d'exploiter l'information afin de concevoir de nouvelles machines microscopiques pour les applications nanotechnologiques. "Il y a un grand intérêt à s'inspirer des machines biomoléculaires que la nature a développées", déclare le co-auteur David Sivak, un physicien également à SFU. "Notre travail fait progresser notre compréhension de la façon dont l'information peut être utilisée dans de telles machines, ce qui laisse entrevoir des utilisations possibles pour la récolte d'énergie durable ou un stockage et un calcul informatique plus efficaces."
"Un moteur d'information est une machine qui convertit l'information en travail", explique John Bechhoefer.
Bechhoefer, Sivak et leurs collègues de SFU Tushar Saha, Joseph Lucero et Jannik Ehrich ont construit un moteur d'information en utilisant une perle de verre microscopique - de la taille d'une bactérie - en suspension dans l'eau. La perle est maintenue en place de manière lâche par un faisceau laser qui agit comme un support sous le faisceau. Les molécules de l'eau bousculent doucement la bille, en raison des fluctuations thermiques naturelles du liquide, et de temps en temps, la bille est secouée.
C'est là que réside l'astuce : Lorsque l'équipe constate que la bille s'est déplacée vers le haut contre la gravité, en raison des fluctuations thermiques, elle relève le support laser. Dans cette position plus élevée, la bille a maintenant plus d'énergie stockée, ou énergie potentielle gravitationnelle, comme une balle qui est tenue en l'air, prête à tomber.
L'équipe n'a pas eu à fournir de travail pour soulever la particule ; ce mouvement s'est produit naturellement grâce aux secousses des molécules d'eau. Le moteur convertit donc la chaleur thermique de l'eau en énergie potentielle gravitationnelle stockée en utilisant le retour d'information sur le mouvement de la bille pour ajuster le piège à laser. La décision de relever ou non le piège, et si oui de combien, dépend des informations que nous recueillons sur la position de la bille, qui servent de "carburant" au moteur", explique l'auteur principal, M. Saha.
C'est ainsi que cela fonctionne en principe, mais la mise en œuvre correcte de la stratégie est difficile s'il y a trop de bruit de mesure, généré dans le système par la luminosité du faisceau laser utilisé pour localiser la bille. Dans ce cas, l'incertitude sur la position de la bille pour chaque mesure peut être plus importante que les mouvements de la bille produits par le remuement des molécules d'eau. "Le bruit des mesures entraîne une rétroaction erronée et dégrade ainsi les performances", explique M. Saha.
Moteur d'information "bayésien
Les moteurs d'information classiques utilisent des algorithmes de rétroaction qui fondent leurs décisions sur la dernière mesure de la position de la bille, mais ces décisions peuvent être erronées lorsque les erreurs de mesure sont importantes. Dans leur récent article, l'équipe a voulu étudier s'il existait un moyen de contourner ce problème perturbateur.
Ils ont développé un algorithme de rétroaction qui ne repose pas simplement sur une mesure directe de la dernière position de la bille - puisque cette mesure peut être inexacte - mais plutôt sur une mesure plus précise de la dernière position de la bille, basée sur toutes les mesures précédentes. Cet algorithme de filtrage était donc capable de tenir compte des erreurs de mesure dans son estimation, appelée "estimation bayésienne".
"En combinant de nombreuses mesures bruitées d'une manière intelligente impliquant un modèle de la dynamique de la bille, on peut récupérer une estimation plus précise de la position réelle de la bille, ce qui atténue considérablement les pertes de performance", explique Lucero.
Dans leur nouvelle expérience, rapportée dans Physical Review Letters, l'équipe a démontré qu'un moteur d'information qui applique un retour d'information basé sur ces estimations bayésiennes est nettement plus performant que les moteurs d'information classiques, lorsque les erreurs de mesure sont importantes. En fait, la plupart des moteurs d'information classiques s'arrêtent si les erreurs de mesure sont trop importantes.
"Nous avons été surpris de constater que lorsque les erreurs de mesure dépassent un seuil critique, le moteur naïf ne peut plus fonctionner comme un pur moteur d'information : la meilleure stratégie consiste simplement à lever les bras et à ne rien faire", déclare Ehrich. "En revanche, le moteur d'information bayésien est capable d'effectuer un petit travail positif, quelle que soit l'importance de l'erreur de mesure."
Il y a un prix à payer pour la capacité du moteur d'information bayésien à extraire de l'énergie même avec de grandes erreurs de mesure. Comme le moteur bayésien utilise les informations de toutes les mesures précédentes, il a besoin d'une plus grande capacité de stockage et implique davantage de traitement de l'information.
"Un compromis apparaît car la réduction de l'erreur de mesure augmente le travail extractible des fluctuations, mais augmente également les coûts de traitement de l'information", explique Ehrich. L'équipe a donc trouvé une efficacité maximale à un niveau intermédiaire d'erreur de mesure, où elle a pu atteindre un bon niveau d'extraction d'énergie, sans nécessiter trop de traitement.
"Il y a un grand intérêt à s'inspirer des machines biomoléculaires que la nature a développées", déclare David Sivak.
L'équipe étudie maintenant comment les choses pourraient changer si le bruit qui "alimente" le moteur provenait d'autre chose que de la chaleur. "Nous préparons un article qui étudie comment la stratégie de rétroaction optimale et les performances changent lorsque les fluctuations ne sont plus simplement thermiques", explique David Saha, "mais sont également dues à une consommation active d'énergie dans le milieu environnant, comme c'est le cas dans les cellules vivantes."
Une galaxie active proche émet des neutrinos
Les observations ont montré un fond diffus de neutrinos de haute énergie, dont on sait qu'il est d'origine extragalactique. Cependant, il a été difficile d'identifier les sources individuelles qui contribuent à ce fond. La collaboration IceCube a réanalysé les directions d'arrivée des neutrinos astrophysiques et a ensuite recherché des sources ponctuelles (voir la perspective de Murase). Ils ont identifié des preuves de l'émission de neutrinos par NGC 1068 (également connue sous le nom de Messier 77), une galaxie active proche. Ses propriétés sont très différentes de celles de TXS 0506+056, qui s'est avérée être une source de neutrinos en 2018, ce qui a conduit les chercheurs à suggérer qu'il pourrait y avoir plus d'une population contribuant au fond de neutrinos. -KTS
Résumé
Un trou noir supermassif, obscurci par la poussière cosmique, alimente la galaxie active voisine NGC 1068. Les neutrinos, qui interagissent rarement avec la matière, pourraient fournir des informations sur le noyau actif de la galaxie. Nous avons recherché l'émission de neutrinos par des objets astrophysiques en utilisant les données enregistrées par le détecteur de neutrinos IceCube entre 2011 et 2020. Les positions de 110 sources de rayons gamma connues ont été recherchées individuellement pour détecter des neutrinos au-dessus des fonds atmosphériques et cosmiques. Nous avons constaté que NGC 1068 présente un excès de 79+22-20
neutrinos à des énergies de volt téra-électroniques, avec une signification globale de 4,2σ, que nous interprétons comme associés à la galaxie active. Le flux de neutrinos de haute énergie que nous avons mesuré à partir de NGC 1068 est supérieur de plus d'un ordre de grandeur à la limite supérieure des émissions de rayons gamma de téra-électron-volt de cette source.