TimesFM - le modèle de séries temporelles de Google à 200 M de paramètres avec un contexte de 16k
(github.com/google-research)- TimesFM est un grand modèle préentraîné pour la prévision de séries temporelles développé par Google Research, utilisant une architecture de type décodeur seul
- La version la plus récente, 2.5, prend en charge 200 millions de paramètres, une longueur de contexte de 16k et des prédictions jusqu’à un horizon maximal de 1k
- Elle inclut diverses fonctionnalités comme la prévision continue par quantiles, les entrées de covariables (XReg) et des backends Flax et PyTorch
- Le modèle est publié via Hugging Face et peut aussi être utilisé grâce à son intégration dans BigQuery
- En tant que modèle de base généraliste pour la prévision de données de séries temporelles, il offre évolutivité et efficacité aussi bien pour la recherche que pour la pratique
Présentation de TimesFM
- TimesFM (Time Series Foundation Model) est un modèle préentraîné pour la prévision de séries temporelles développé par Google Research
- Il s’appuie sur l’article de l’ICML 2024 “A decoder-only foundation model for time-series forecasting”
- Les checkpoints du modèle sont fournis via la collection Hugging Face et sont aussi officiellement intégrés à BigQuery
- La version ouverte n’est pas un produit Google officiel
Versions du modèle et principales mises à jour
- La version la plus récente est TimesFM 2.5 ; les versions précédentes (1.0, 2.0) sont conservées dans le répertoire
v1et peuvent être installées avectimesfm==1.3.0 -
Mise à jour du 15 septembre 2025
- Publication du modèle TimesFM 2.5
- Nombre de paramètres réduit à 200M (contre 500M auparavant, soit moins de la moitié)
- Longueur de contexte étendue à 16k (contre 2048 auparavant)
- Prise en charge de la prévision continue par quantiles (continuous quantile forecast) jusqu’à un horizon maximal de 1k, avec une tête quantile de 30M en option
- Suppression de l’indicateur
frequency - Ajout de nouveaux drapeaux de prévision (forecasting flags)
- Mise à niveau de l’API d’inférence (inference API)
- Éléments prévus par la suite
- Prise en charge du modèle en version Flax (inférence plus rapide)
- Rétablissement de la prise en charge des covariables (covariates)
- Renforcement des docstrings, de la documentation et des notebooks
-
Mise à jour du 29 octobre 2025
- La prise en charge des entrées de covariables via XReg a été réajoutée à TimesFM 2.5
Méthode d’installation
- Cloner le dépôt GitHub, puis utiliser
uvpour créer un environnement virtuel et installer les paquets- Installation possible de backends optionnels parmi
torch,flax,xreg - Selon l’OS et l’accélérateur (CPU, GPU, TPU, Apple Silicon), choix possible entre PyTorch et JAX (Flax)
- Installation possible de backends optionnels parmi
Exemple de code
- Exemple fourni pour charger le modèle TimesFM 2.5 basé sur PyTorch (200M de paramètres)
- Utilisation de
timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch") - Avec
ForecastConfig, il est possible de configurer la normalisation des entrées (normalize_inputs), l’utilisation de la tête de quantiles continue, la contrainte de positivité (infer_is_positive) et la correction du croisement des quantiles (fix_quantile_crossing) - Lors de l’appel à
forecast(), deux types de résultats sont renvoyés : point forecast et quantile forecastpoint_forecast.shape: (2, 12)quantile_forecast.shape: (2, 12, 10) — inclut la moyenne ainsi que les quantiles de 10 à 90
- Utilisation de
Aucun commentaire pour le moment.