Lifestyle Coronavirus: pour prévoir la suite, maths, ordinateurs et top modèles

Relaxnews

14.2.2020 - 16:18

Pour prévoir comment se développera l'épidémie liée au nouveau coronavirus, les chercheurs s'appuient sur des simulations informatiques
Pour prévoir comment se développera l'épidémie liée au nouveau coronavirus, les chercheurs s'appuient sur des simulations informatiques
Source: Relaxnews

Date du pic, évolution du nombre de morts et de malades... Pour prévoir comment se développera l'épidémie liée au nouveau coronavirus, les chercheurs s'appuient sur des simulations informatiques, qui ne sont pas une boule de cristal mais un outil précieux malgré leur marge d'erreur.

Ils utilisent pour cela des modèles mathématiques, qui donnent aux autorités sanitaires mondiales des indications sur l'ampleur que l'épidémie pourrait prendre, et donc sur les mesures à envisager pour essayer de la contenir.

«Nous avons eu une réunion des ministres du G7 avant hier au téléphone pour essayer de modéliser différents scénarios en fonction (...) de la gravité, de la contagiosité», a indiqué vendredi la ministre française de la Santé, Agnès Buzyn, sur la radio France Inter.

«Nous travaillons à anticiper et à mettre en place des mesures pour les différents scénarios», a-t-elle poursuivi.

Pour bâtir ces modèles, il faut prendre en compte de nombreux paramètres liés à la fois au virus (probabilité de transmission, probabilité de décès ou de guérison d'un individu infecté...) et au comportement des populations, à commencer par leurs déplacements (trafic aérien...). Ces paramètres sont ensuite entrés dans des programmes informatiques.

«Il y a un prix à payer : plus on cherche à affiner le modèle, plus il sera difficile à manipuler et potentiellement porteur d'une forte incertitude», explique à l'AFP Arnaud Banos, chercheur au CNRS.

Pour coller au plus près de la situation de l'épidémie en temps réel, les chercheurs réalisent des simulations en injectant dans le modèle initial de nouvelles données au fur et à mesure qu'elles émergent.

«C'est par exemple l'apparition d'un nouveau foyer épidémique ou d'une nouvelle mesure politique ou de santé publique que le modèle ne pouvait pas prévoir», reprend Arnaud Banos.

Grâce à ce type de modèle, une équipe britannique de la London School of Hygiene & Tropical Medicine a estimé cette semaine que le pic de l'épidémie dans la ville chinoise de Wuhan, son épicentre, serait atteint entre la mi et la fin-février.

«Il subsiste toutefois de nombreuses incertitudes sur le moment exact où cela arrivera et sur le nombre de cas que cela représentera», a souligné l'un des auteurs, Adam Kucharski.

«Cette analyse est signée par une équipe expérimentée et talentueuse, mais comme toujours, le manque de données disponibles risque d'affecter ses prévisions», a de son côté commenté un scientifique qui n'a pas participé à ces travaux, le Pr Rowland Kao (université d'Edimbourg).

- Intelligence artificielle -De fait, dans les premiers temps d'une épidémie, les modèles peuvent être induits en erreur par les inconnues qui subsistent.

Cela a par exemple été le cas pour la forme humaine de la maladie de la vache folle dans la deuxième moitié des années 90.

«Certains modèles, issus d'équipes de recherche réputées, avaient prédit jusqu'à 136.000 cas d'ici à 2020 (...) avec cependant beaucoup d'incertitudes sur les prédictions», rappelait ainsi un spécialiste français d'épidémiologie, le Pr Arnaud Fontanet, lors d'une leçon inaugurale au Collège de France l'an dernier.

«Ces incertitudes reposaient en grande partie sur les hypothèses émises autour de la durée d'incubation de la maladie», ajoutait-il.

La fiabilité de ce genre de prévisions «dépend de la nature du processus modélisé et des connaissances – et leurs incertitudes – injectées dans le modèle», relève Arnaud Banos.

Par ailleurs, ces dernières années, de nombreux travaux ont eu recours à l'intelligence artificielle.

«L'objectif est de détecter ce que l'on appelle des signaux faibles, par exemple des individus échangeant sur les réseaux sociaux à propos de symptômes qu'ils ressentiraient», selon M. Banos.

«L'idée est de fouiller en permanence des quantités gigantesques de données afin de détecter ces signaux faibles automatiquement et les mettre en relation avec l'évolution d'une possible maladie, sur la base d'un apprentissage effectué à partir d'un grand nombre de situations passées», poursuit-il.

Selon lui, «le couplage de ces approches centrées sur les données avec les approches par modélisation est un enjeu scientifique majeur».

Retour à la page d'accueil