nouvelles

Résumé du site Web scientifique des médias étrangers du 24 juillet : les scientifiques devraient créer l'élément le plus lourd jamais créé

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Selon les informations du mercredi 24 juillet, les principaux contenus de sites scientifiques étrangers bien connus sont les suivants :

Site Internet "Nature" (www.nature.com)

1. L'outil d'IA de Google peut prédire les tendances climatiques et la météo à long terme en quelques minutes

Le modèle d'apprentissage automatique de Google, NeuralGCM, est un modèle informatique qui combine les techniques traditionnelles de prévision météorologique et l'apprentissage automatique. Il est meilleur que les autres outils basés sur l'intelligence artificielle (IA) pour prédire les scénarios météorologiques et les tendances climatiques à long terme.

Publié récemment dans la revue Nature, l'outil est le premier modèle d'apprentissage automatique capable de produire des prévisions météorologiques complètes et précises, montrant une gamme de scénarios météorologiques. Son développement ouvre un nouveau chapitre dans la prévision météorologique, permettant d'effectuer des prévisions plus rapidement, avec moins d'énergie et avec plus de détails que les outils existants, que les modèles entièrement basés sur l'intelligence artificielle.

Les systèmes de prévision météorologique actuels s'appuient généralement sur des modèles de circulation générale (GCM), qui utilisent des lois physiques pour simuler les processus océaniques et atmosphériques de la Terre et prédire comment ces processus peuvent affecter le temps et le climat. Mais la GCM nécessite d’importantes ressources informatiques, et les progrès de l’apprentissage automatique commencent à offrir des alternatives plus efficaces.

Stephan Hoyer, chercheur en IA chez Google Research, et son équipe ont développé et formé NeuralGCM, un modèle qui combine des solveurs atmosphériques traditionnels basés sur la physique avec certains composants d'IA. Ils utilisent le modèle pour établir des prévisions météorologiques et climatiques à court et à long terme. Pour évaluer l'exactitude de NeuralGCM, les chercheurs ont comparé ses prédictions avec des données du monde réel et les résultats d'autres modèles, notamment des GCM et des modèles purement basés sur l'apprentissage automatique.

À l'instar des modèles d'apprentissage automatique actuels, NeuralGCM peut produire des prévisions météorologiques déterministes précises à court terme un à trois jours à l'avance tout en consommant une fraction de l'énergie requise par les outils existants. Mais lorsque l’on fait des prédictions à long terme de plus de 7 jours, son taux d’erreur est bien inférieur à celui des autres modèles d’apprentissage automatique. En fait, les prévisions à long terme de NeuralGCM sont similaires à celles du modèle d'ensemble ECMWF-ENS du Centre européen pour les prévisions météorologiques à moyen terme, qui est largement considéré comme la référence en matière de prévisions météorologiques.

2. Après des avancées technologiques majeures, les scientifiques devraient créer le plus grand robot de l'univers à ce jour.éléments lourds

Les chercheurs ont démontré une nouvelle façon de créer des éléments super-lourds, fournissant ainsi un moyen de créer l'élément le plus lourd de l'univers à ce jour, l'élément 120.

Des scientifiques du Lawrence Berkeley National Laboratory (LBNL), aux États-Unis, ont annoncé avoir réussi à produire pour la première fois un élément super-lourd connu, l'élément 116, à l'aide d'un faisceau de titane. Après avoir amélioré l'équipement du laboratoire, l'équipe prévoit d'utiliser une technologie similaire pour tenter de créer l'élément 120. À ce jour, l’élément le plus lourd créé par l’homme est l’Og, l’élément 118, synthétisé pour la première fois en 2002.

Lors de la conférence « Nuclear Structure 2024 » à Lemont, Illinois, États-Unis, l'équipe de recherche du LBNL a présenté les résultats de ses recherches et publié une prépublication sur le serveur arXiv.

Les éléments super-lourds n’existent pas naturellement sur Terre, mais les scientifiques pensent qu’ils pourraient apparaître dans les étoiles. Ils sont hautement radioactifs, se décomposent rapidement par fission nucléaire et ont peu d’applications pratiques immédiates. Mais en créant de nouveaux éléments, les scientifiques approfondissent leur compréhension du fonctionnement de l’univers et complètent des modèles théoriques sur le comportement du noyau atomique et ses limites, comme le nombre de protons et de neutrons qu’il peut contenir.

Pour fabriquer de nouveaux éléments, les chercheurs utilisentparticule L'accélérateur fait entrer en collision un faisceau d'ions avec des atomes dans une cible solide dans l'espoir de déclencher une réaction nucléaire qui fusionnera les noyaux atomiques et créera des éléments avec plus de protons et de neutrons. Mais les matières premières existantes s’essoufflent. Un groupe d'éléments superlourds récemment découvert, numérotés de 114 à 118, a été créé en bombardant des cibles constituées d'actinides avec des faisceaux de calcium-48. Cet isotope du calcium est particulièrement stable, ce qui le rend idéal pour favoriser les réactions de fusion nucléaire nécessaires.

Cependant, le calcium ne fait qu'amener les scientifiques aux confins du tableau périodique. Les scientifiques tentent de créer des éléments super-lourds, notamment des isotopes du titane et du chrome, en utilisant des faisceaux de particules plus lourdes que le calcium-48. Pour déterminer si un faisceau de titane-50 pouvait être utilisé pour créer des éléments super-lourds, l'équipe du LBNL a construit le Livermorium-290. L'équipe a utilisé l'installation cyclotron de 88 pouces du Berkeley Lab pour accélérer un faisceau de titane et le tirer sur une cible en plutonium.

Site Internet « Science Daily » (www.sciencedaily.com)

1. La technologie de nanoimagerie aide à comprendre la préservation des protéines et des tissus dans les os anciens

Une étude préliminaire de l'Université d'État de Caroline du Nord montre que l'imagerie tridimensionnelle à l'échelle nanométrique d'os anciens pourrait non seulement mieux comprendre les changements que subissent les tissus mous au cours de la fossilisation, mais pourrait également servir de moyen rapide et pratique pour déterminer quels spécimens Peut convenir à la préservation d’anciennes séquences d’ADN et de protéines.

L’utilisation de méthodes de nanoimagerie pour comparer les os modernes avec ceux de la période glaciaire pourrait permettre de mieux comprendre les changements subis par le collagène et les vaisseaux sanguins au cours de la fossilisation.

Les chercheurs ont comparé de petits échantillons d’os de pattes de bovins, de crocodiles et d’autruches modernes avec ceux de l’ère pléistocène de mammouths, de bisons des steppes, de rennes et de chevaux. Les échantillons du Pléistocène ont été prélevés lors de la fonte du pergélisol ancien dans le territoire du Yukon au Canada.

À l’aide d’un spectromètre de masse d’ions secondaires à temps de vol (TOF-SIMS) pour analyser la surface des structures imagées, les chercheurs ont identifié les signatures chimiques présentes dans les structures et ont contribué à confirmer qu’il s’agissait de collagène et de vaisseaux sanguins.

L’idée de base derrière cette étude préliminaire est que cette approche à l’échelle nanométrique peut être utilisée sur tous les os des archives fossiles afin de mieux comprendre les changements chimiques et structurels qui se produisent dans les tissus organiques au cours de la fossilisation. La technique pourrait également être utilisée pour cribler des spécimens d’os anciens adaptés à la préservation des séquences d’ADN et de protéines.

2. Les astrophysiciens découvrent le supermassiftrou noiretmatière noireContact pour aider à résoudre le "problème final de Parsec"

Les chercheurs ont découvert un lien entre les trous noirs supermassifs et les particules de matière noire, qui comptent parmi les plus grandes et les plus petites entités de l’univers.

Leurs nouveaux calculs montrent qu’une paire de trous noirs supermassifs (SMBH) ont pu fusionner en un trou noir plus grand en raison du comportement auparavant négligé des particules de matière noire, donnant ainsi un aperçu du « problème final du parsec » de l’astronomie. une solution. La recherche a été publiée ce mois-ci dans Physical Review Letters.

En 2023, des astrophysiciens annonçaient la détection d’un « bourdonnement » d’ondes gravitationnelles imprégnant l’univers. Ils émettent l’hypothèse que ce signal de fond est émis par des millions de paires de trous noirs supermassifs en fusion, chacun représentant des milliards de fois la masse du Soleil.

Cependant, des simulations théoriques suggèrent que lorsque ces objets géants tournent en spirale par paires, leur approche s'arrête à une distance d'environ 1 parsec (une distance d'environ 3 années-lumière), empêchant leur fusion.

Ce "dernier problème de parsec" entre en conflit non seulement avec la théorie selon laquelle la fusion de trous noirs massifs est à l'origine du fond d'ondes gravitationnelles, mais également avec la théorie selon laquelle les trous noirs massifs sont formés par la fusion de trous noirs plus petits.

Les co-auteurs de l'article ont déclaré : « Nous montrons que l'ajout de l'influence jusqu'alors ignorée de la matière noire peut aider les trous noirs supermassifs à surmonter les écarts finaux de séparation et de fusion. Nos calculs expliquent comment cela se produit, contrairement aux idées précédentes.

Site Web du Scitech Daily (https://scitechdaily.com)

1. La période de validité des médicaments pourrait affecter les futures missions d’exploration de Mars

Une nouvelle étude menée par Duke Health montre que plus de la moitié des médicaments stockés dans le vaisseau spatial expireront avant le retour des astronautes sur Terre après avoir effectué un voyage de trois ans vers Mars. Cela comprend des analgésiques, des antibiotiques, des médicaments majeurs comme les médicaments contre les allergies et les somnifères. .

Selon une étude publiée dans le dernier numéro de la revue npj Microgravity du Nature Publishing Group, les astronautes pourraient finir par dépendre de médicaments inefficaces, voire nocifs.

Les médicaments périmés peuvent perdre une partie ou la majeure partie de leur efficacité. La stabilité et la puissance réelles des médicaments dans l’espace par rapport à la Terre restent largement inconnues. L’environnement spatial hostile, notamment les radiations, peut réduire l’efficacité des médicaments.

Alors que les agences spatiales planifient des missions de longue durée sur Mars et ailleurs, les médicaments périmés pourraient poser des problèmes pour ces missions, ont noté les chercheurs.

À l’aide de la base de données internationale sur les dates d’expiration des médicaments, les chercheurs ont déterminé que 54 des 91 médicaments avaient une durée de conservation de 36 mois ou moins.

Les estimations les plus optimistes estiment qu’environ 60 % de ces médicaments expireront avant la fin de la mission sur Mars. Dans des hypothèses plus prudentes, ce chiffre grimpe à 98 %.

Cette étude ne suppose pas que les médicaments se dégradent plus rapidement, mais se concentre plutôt sur les médicaments qui ne peuvent pas être mis à jour pour les missions sur Mars. Ce manque de fournitures affecte non seulement les médicaments, mais également d’autres fournitures importantes, comme la nourriture.

Augmenter le nombre de médicaments à bord d'un vaisseau spatial pourrait également aider à compenser la diminution de l'efficacité des médicaments périmés, affirment les auteurs de l'article.

2. Les astronomes chinois ont développégalaxieDe nouvelles techniques pour extraire des informations des enquêtes

Des scientifiques de l'Observatoire astronomique national de l'Académie chinoise des sciences (NAOC), en collaboration avec des partenaires internationaux, ont récemment conçu une technologie innovante capable d'extraire efficacement des informations à partir d'études sur les galaxies, ouvrant ainsi la voie à l'exploration et à l'étude futures de l'univers.

Les résultats de leurs recherches ont été publiés dans le dernier numéro en ligne de Communications Physics.

À l’ère de la cosmologie de précision, les études de redshift des galaxies à grande échelle sont des outils puissants pour sonder l’univers. En observant un grand nombre de spectres de galaxies lointaines, les astronomes sont capables de créer des champs de densité de galaxies à différents moments de l'univers. Ces champs de densité contiennent des informations importantes sur l'agrégation des galaxies, qui peuvent être quantifiées par des fonctions de corrélation à deux points et à N points (N>2).

Cependant, il est difficile d’utiliser les fonctions à n points en pratique en raison de diverses complexités, notamment la mesure et la modélisation de ces quantités.

Après avoir travaillé sur cette tâche difficile pendant plusieurs années, l'équipe de recherche et les partenaires de NAOC ont développé un nouvel ensemble de méthodes permettant d'extraire des fonctions de corrélation multipoints à partir de fonctions de corrélation galactique à deux points.

Les chercheurs ont déclaré : « Cela ouvre une nouvelle fenêtre pour l'utilisation efficace d'informations d'ordre élevé dans les études de galaxies, et est important pour les instruments à venir, notamment le spectroradiomètre à énergie sombre (DESI), le spectrographe à focale fixe (PFS) et le China Survey Space. Le télescope (CSST) est d'une grande importance cosmologique. " (Liu Chun)