Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

leduche

Membres
  • Compteur de contenus

    3
  • Inscription

  • Dernière visite

leduche's Achievements

Cirrus

Cirrus (1/24)

  1. Bonjour Cirrus, Ce fichier doit être modifié pour indiquer le chemin Curl par exemple. Peux tu me dire quelles modifs tu as apporté et me confirmer que tu es ss Windows (Ta ligne de cmd commençant par perl)? Je me suis perdu en chemin dans le tuto... Merci Guillaume
  2. Re bonjour, J'ai un peu progressé... toujours grâce au forum ... et à un peu de prise de tête aussi /emoticons/smile@2x.png 2x" width="20" height="20"> Ces commandes semblent fonctionner: wgrib2.exe gfs_grb211.t18z.pgrbf00.grib2 -csv Noaa.csv wgrib2.exe gfs_grb211.t18z.pgrbf00.grib2 -lola 75:1:1 90:1:1 test.txt spread Par contre il parait impossible de "mixer" les deux: C'est à dire mettre -lola et ensuite -csv ... Quelqu'un confirme? D'autre part ces commandes fonctionnent en local (J'ai préalablement téléchargé le fichier grib sur mon DD) - Est il possible d'extraire les données à la source en filtrant avec ce type de commandes (sur le site http://www.nco.ncep.noaa.gov/pmb/products/gfs/...) et si oui quel est le chemin à spécifier car la saisie de l'url au sein des lignes de commande ci dessus ne fonctionne pas. Une autre solution semble se trouver ici... http://nomads.ncep.noaa.gov/cgi-bin/filter_gfs_hd.pl?dir=%2Fgfs.2011120500%2Fmaster Je m'interroge ... Pourquoi deux sources ? Le travail de filtrage par URL est pratique mais est il autorisé de requêter sans limite dessus (J'ai une 20aine de coordonnées * 10 HHruns = 200 fichiers tous les jours)? Sinon je suis toujours preneur d'une explication de texte sur degrib et get_gfs.pl (ss winXP) - Voir ci dessus. Bonne journée. Guillaume
  3. Bonjour, Je tiens en préambule à féliciter le créateur du forum et ses membres pour la qualité de certains posts que j'ai pu y lire. Je cherche comme d'autres ici (J'ai lu bcp de posts sur la question ici) à maitriser correctement la procédure d'accès aux données GFS. Voici ce que j'ai réussi: - Installation wgrib2 - Import d'un fichier wgrib via http et stockage dans un répertoire - Exécution commande dos wgrib2 et création d'un .CSV Problème: Les fichiers grb sont volumineux et contiennent de nombreuses données dont je n'ai pas besoin. Je cherche à ne collecter que quelques données (T°/Pression - Précipitations - Vent, ...) pour des coordonnées précises (Points GPS) ou pour une surface réduite (Région Française par ex)... 1/ J'ai essayé de mettre en place le get_gfs mais sans succes malgré le tuto fastdownload. L'ordre des étapes (get_gfs.pl, perl??, Curl -Que j'ai téléchargé), et le $PATH ne sont pas clairs pour moi qui suis ss winXP. 2/ Fort de ce que j'ai appris sur ce forum j'ai téléchargé degrib et essayé la commande C:\ndfd\degrib\bin\degrib.exe gfs_grb211.t18z.pgrbf00.grib2 -p -ptn 42.69,2.90 -Unit m -Csv -C -out Noaa.csv en ligne de commande... Rien. Il lance le programme et ne créé pas le fichier contrairement à wgrib2 Ma question est donc: Quelqu'un connait il les solutions aux PB que je rencontre dans les 2 procédures. Et si oui me les détailler En espérant avoir des réponses ou pistes pour avancer, je vous souhaite une bonne fin de week-end. Guillaume
×
×
  • Créer...