Eh bien, j'ai quelques réponses partielles à cela. Personne ne le sait exactement, bien sûr. Sinon, la solution serait très probablement mise en œuvre immédiatement. Et si les informaticiens cèdent, une pression serait exercée sur eux. Mais en l'état actuel des choses, les choses ne sont pas claires et la situation reste donc confuse. De plus, vous ne donnez pas de détails sur les prévisions des modèles informatiques que vous considérez dans votre comparaison. Donc, je vais donner quelques informations ci-dessous qui sont j'espère correctes.
Tout d'abord, il faut voir qu'il y a essentiellement deux types de modèles : les modèles globaux qui fonctionnent pour la planète entière et les modèles locaux qui utilisent la condition limite d'un modèle global pour leur forçage. Les modèles globaux utilisés par les National Centers for Environmental Prediction et le European Centre for Medium-Range Weather Forecasts sont respectivement le Global Forecast System (GFS) et le Integrated Forecast System (IFS). Ces modèles globaux ont besoin de schémas numériques pour leurs exécutions, d'assimilation de données (4DVAR) de mesures (satellites, stations météo, sondes radio, etc.) qui aident à améliorer les exécutions, de superordinateurs pour leurs exécutions, de paramétrisation (modélisation atmosphérique) pour leurs processus physiques (tout n'est pas connu en physique), de couplage de modèles entre différents domaines (par exemple ondes et atmosphère). Voir la documentation IFS CY38r1 pour une description complète de l'IFS et les National Centers for Environmental Prediction pour une description du GFS.
Les modèles locaux sont limités à une zone géographique spécifique (disons la mer Méditerranée, la mer Adriatique, etc.) où vous vous attendez à pouvoir obtenir une résolution plus élevée que le modèle global. Le problème des modèles locaux est qu'ils sont généralement moins sophistiqués que les modèles globaux et qu'ils dépendent des conditions limites d'un modèle global pour leur exécution. Des exemples de modèles locaux sont le Weather Research and Forecasting Model (WRF) développé par de nombreuses agences américaines, COSMO développé essentiellement par le service météorologique allemand et ALADIN / AROME par Météo France. Une liste plus complète des modèles se trouve sur wikipedia : Modèle atmosphérique.
Puis, je dois dire que l'ensemble le plus important de données utilisées par les modèles proviennent des satellites et sont disponibles pour tout le monde (Les produits de données du diffusomètre avancé (ASCAT), les produits de données QuikSCAT/SeaWinds, Jason-1, etc...). Les mesures des stations ne sont pas toujours partagées mais le point important est qu'il n'y a pas d'avantage spécifique que les Américains ont pour prévoir le temps aux USA. Les méthodes numériques et physiques sont publiées dans de nombreuses revues et sont accessibles à tous. Il n'y a pas vraiment de secret là-dessus.
Avant de comparer, il faut aussi dire que je n'ai pas vu de comparaison globale entre les produits de prévisions du NCEP et du CEPMMT. Le CEPMMT a eu raison pour l'ouragan Sandy, mais peut-être a-t-il eu tort pour beaucoup d'autres choses. Je n'en sais rien. Et si le CEPMMT est meilleur, de combien ? pour quelles variables ? pour quelles régions géographiques ? pour quelles périodes ? Tous ces détails sont importants pour bien faire les choses.
Donc, ce que je vais énumérer comme raisons possibles ci-dessous sont un certain nombre de suppositions. Je pourrais très bien me tromper. Personne ne sait exactement.
1) Un facteur est la qualité des superordinateurs utilisés, de l'implémentation numérique (une meilleure programmation Fortran peut obtenir beaucoup de différence de vitesse). La résolution actuelle du CEPMMT est de 16 km et ils passent cette année à un ordinateur plus rapide. NCEP semble être à 27 km (voir National Climatic Data Center ) mais la résolution devrait être plus fine à l'avenir.
2) Le CEPMMT semble plus ouvert ; son site web est plus clair et son modèle est assez raisonnablement documenté. C'est centralisé, oui mais il semble y avoir un plan raisonnable. Le côté américain semble être embourbé dans une guerre entre de nombreux groupes différents (voir Fixing the National Weather Service's Computer Gap).
3) IFS a un couplage aux ondes (avec le modèle WAM) qui donne une meilleure paramétrisation de la contrainte de surface. Je ne suis pas sûr pour GFS, leur documentation est moins claire.
4) IFS utilise 4D-Var pour l'assimilation des données, mais il semble que ce soit encore en développement pour GFS. La discussion porte sur le filtre Kalman d'ensemble, qui, pour moi, est plus coûteux en calcul, mais moins cher en programmation que 4D-Var.
5) La rugosité de l'orographie à l'échelle subgrid est utilisée dans le CEPMMT, mais il ne semble pas que ce soit le cas dans GFS pour ce que j'ai vu.
En fin de compte, ce genre de travail est un problème bien posé (Quelle était l'exactitude de la prévision pour moi ?) qui nécessite de nombreuses choses très dures à réaliser ensemble par des scientifiques d'horizons variés (Ingénieur informatique, Programmeur, Physiciens, Théorie des systèmes dynamiques, etc...). Peut-être que le CEPMMT l'a mieux fait que GFS ces derniers temps, mais la situation peut changer très rapidement.
Une autre différence : Les prévisions du GFS sont disponibles gratuitement. Pour l'ECMWF, vous devez payer 250000$ par an si vous voulez les prévisions. Par contre, si vous voulez faire une étude scientifique, vous pouvez obtenir gratuitement des prévisions passées sur des événements passés (et donc sans valeur commerciale) : ERA-Interim pour les 40 dernières années au moins.