7 points par GN⁺ 28 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • TimesFM est un grand modèle préentraîné pour la prévision de séries temporelles développé par Google Research, utilisant une architecture de type décodeur seul
  • La version la plus récente, 2.5, prend en charge 200 millions de paramètres, une longueur de contexte de 16k et des prédictions jusqu’à un horizon maximal de 1k
  • Elle inclut diverses fonctionnalités comme la prévision continue par quantiles, les entrées de covariables (XReg) et des backends Flax et PyTorch
  • Le modèle est publié via Hugging Face et peut aussi être utilisé grâce à son intégration dans BigQuery
  • En tant que modèle de base généraliste pour la prévision de données de séries temporelles, il offre évolutivité et efficacité aussi bien pour la recherche que pour la pratique

Présentation de TimesFM

  • TimesFM (Time Series Foundation Model) est un modèle préentraîné pour la prévision de séries temporelles développé par Google Research
  • Il s’appuie sur l’article de l’ICML 2024 “A decoder-only foundation model for time-series forecasting”
  • Les checkpoints du modèle sont fournis via la collection Hugging Face et sont aussi officiellement intégrés à BigQuery
  • La version ouverte n’est pas un produit Google officiel

Versions du modèle et principales mises à jour

  • La version la plus récente est TimesFM 2.5 ; les versions précédentes (1.0, 2.0) sont conservées dans le répertoire v1 et peuvent être installées avec timesfm==1.3.0
  • Mise à jour du 15 septembre 2025

    • Publication du modèle TimesFM 2.5
    • Nombre de paramètres réduit à 200M (contre 500M auparavant, soit moins de la moitié)
    • Longueur de contexte étendue à 16k (contre 2048 auparavant)
    • Prise en charge de la prévision continue par quantiles (continuous quantile forecast) jusqu’à un horizon maximal de 1k, avec une tête quantile de 30M en option
    • Suppression de l’indicateur frequency
    • Ajout de nouveaux drapeaux de prévision (forecasting flags)
    • Mise à niveau de l’API d’inférence (inference API)
    • Éléments prévus par la suite
      1. Prise en charge du modèle en version Flax (inférence plus rapide)
      2. Rétablissement de la prise en charge des covariables (covariates)
      3. Renforcement des docstrings, de la documentation et des notebooks
  • Mise à jour du 29 octobre 2025

    • La prise en charge des entrées de covariables via XReg a été réajoutée à TimesFM 2.5

Méthode d’installation

  • Cloner le dépôt GitHub, puis utiliser uv pour créer un environnement virtuel et installer les paquets
    • Installation possible de backends optionnels parmi torch, flax, xreg
    • Selon l’OS et l’accélérateur (CPU, GPU, TPU, Apple Silicon), choix possible entre PyTorch et JAX (Flax)

Exemple de code

  • Exemple fourni pour charger le modèle TimesFM 2.5 basé sur PyTorch (200M de paramètres)
    • Utilisation de timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
    • Avec ForecastConfig, il est possible de configurer la normalisation des entrées (normalize_inputs), l’utilisation de la tête de quantiles continue, la contrainte de positivité (infer_is_positive) et la correction du croisement des quantiles (fix_quantile_crossing)
    • Lors de l’appel à forecast(), deux types de résultats sont renvoyés : point forecast et quantile forecast
      • point_forecast.shape: (2, 12)
      • quantile_forecast.shape: (2, 12, 10) — inclut la moyenne ainsi que les quantiles de 10 à 90

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.