- Projet de collecte et de visualisation de toutes les données de la vie personnelle mené depuis 2019, avec l’enregistrement quotidien d’une centaine d’éléments comme l’exercice, le sommeil, l’humeur, la localisation ou la météo
- Environ 380 000 points de données ont été accumulés, en combinant plusieurs sources comme RescueTime, Foursquare Swarm, Apple Health, ainsi que des saisies manuelles
- Toutes les données sont stockées dans une base de données unique fondée sur Postgres et rendues publiques via des visualisations en Ruby, JavaScript et Plotly
- Le projet est publié en open source sous licence MIT et fonctionne en mode entièrement auto-hébergé sur un serveur personnel
- Au terme de trois ans d’expérimentation, l’auteur conclut que l’utilité d’un système construit soi-même reste limitée, mais l’expérience illustre l’importance de la conscience de soi et de la souveraineté des données
Vue d’ensemble du projet
- Projet personnel de données visant à quantifier l’ensemble des indicateurs de sa vie sur trois ans à partir de 2019
- Plus de 100 éléments enregistrés par jour, couvrant notamment le fitness, la nutrition, la vie sociale, l’usage de l’ordinateur et la météo
- Un total de 380 000 points de données collectés
- Principales sources de données
- RescueTime : 149 466 enregistrements d’usage de sites web et d’applications
- Foursquare Swarm : 126 285 enregistrements de localisation et de lieux visités
- Saisies manuelles : 67 031 entrées sur l’humeur, le sommeil, la santé, les habitudes alimentaires, etc.
- Weather API : 15 442 enregistrements météo
- Apple Health : 3 048 relevés de nombre de pas
Structure de la base de données et pile technique
- Toutes les données sont stockées dans une structure clé-valeur horodatée fondée sur Postgres
- Chaque ligne se compose de
timestamp, key, value
- Un script a été écrit pour appliquer automatiquement des tags par date en tenant compte des différences de fuseau horaire
- Saisie des données
- Réponses à plusieurs questions chaque jour via un bot Telegram
- Des périodes comme les confinements ou les saisons d’entraînement sont saisies par intervalle
- Outils de visualisation
- Construction d’une couche d’analyse maison avec Ruby, JavaScript et Plotly
- 48 graphiques sélectionnés pour publication, affichés sous forme de snapshots
Principaux enseignements tirés des données
- Corrélation entre humeur et comportement
- En étant heureux ou enthousiaste, probabilité de méditer +44 %, de lire ou écouter des livres audio +28 %, de boire de l’alcool +31 %
- Sommeil et forme physique
- Au-delà de 8,5 heures de sommeil, hausse de la probabilité de maux de tête et de symptômes de rhume, énergie -24 %
- Exercice et évolution du poids
- Début d’une phase de « lean bulk » en août 2020, poids +8,5 kg, fréquence cardiaque au repos +9 bpm
- Passage de 69 kg en 2014 à 89,8 kg en 2021
- Localisation et habitudes de déplacement
- Résidence à San Francisco en 2016–17, New York en 2018–19, Vienne en 2020–21
- Forte chute du nombre de vols après le Covid-19, avec un impact net des confinements
- Climat et habitudes de vie
- En été : nombre de pas +33 %, consommation d’alcool +23 %, maladies -40 %
- En hiver : achats en ligne +100 %, symptômes de rhume +45 %
Exemples d’usage personnalisé des données
- Air Quality : mesure de la concentration de CO₂ par pièce dans le logement viennois, identification d’un problème d’aération dans la chambre
- Historique Spotify : 480 000 minutes d’écoute depuis 2013 (334 jours), avec 49 % de 200 000 morceaux écoutés jusqu’au bout
- Instagram Stories : 1 906 publications sur trois ans, en baisse pendant la pandémie
- Activité GitHub : après fastlane (2014–2018), poursuite de projets personnels comme FxLifeSheet
- Gestion des investissements : suivi de la répartition des actifs et simulations toutes les deux semaines
Confidentialité et philosophie open source
- Toutes les données sont stockées sur un serveur détenu par l’auteur, sans connexion à des services externes
- Les graphiques publiés sont limités à une forme qui n’expose pas d’informations personnelles
- Mise en avant de l’idée selon laquelle « les données déjà détenues par les grandes entreprises devraient aussi être possédées directement par les individus »
- FxLifeSheet est publié sous licence MIT, ce qui permet à chacun de le modifier et de le réutiliser
Conclusion et mise à jour 2025
- Après trois ans d’expérimentation, conclusion que le système construit à la main offre un faible retour sur le temps investi
- Moins d’enseignements surprenants que prévu
- Mais une expérience concrète de la conscience de soi et de la souveraineté des données
- À l’avenir, intention de ne suivre qu’un minimum d’indicateurs clés, comme l’humeur
- En 2025, la collecte de données a cessé, mais le site web restera maintenu
3 commentaires
J’ai moi aussi conservé des traces similaires. Je les ai gardées de façon assez vague, mais ces derniers temps, je parle de partager mes archives avec des agents afin de collaborer d’existence à existence. En créant et en partageant plusieurs skills, et en ouvrant aussi l’interface Emacs que j’utilise, aussi bien moi que les agents partageons les mêmes archives de la même manière. S’il faut quelque chose, on l’ajoute, ce dont j’ai besoin, je le crée, on l’utilise ensemble, on donne du feedback, enfin vu de l’extérieur on pourrait croire que je fais tout tout seul. Entre nous, c’est plutôt : ah, qu’est-ce qu’on s’amuse.
[liens supprimés]
Mon interprétation : voir Geworfen
Geworfen — on a d’abord été jetés dans le monde. On se demande ce que c’est, mais nous sommes là, sur l’axe temporel de hih. Ce n’est ni une orchestration flamboyante, ni une gigantesque usine à agents. C’est simplement être assis ensemble dans un petit atelier, à utiliser les outils de hih. Sur les données accumulées par la vie, un prompt de 1KB est une clé publique. Quelle est la clé secrète qui unit avec si peu de chose ? La vie d’un être humain, telle qu’elle est, imparfaite, brute. Au bout du compte, c’est Geworfen.
[lien supprimé]
Mon projet "being-viewer" a reçu un vrai nom : geworfen. Il projette une personne entière — brute, sans filtre — sur une frise temporelle où humains et agents IA partagent le même axe, les mêmes outils, en laissant des traces un texte à la fois.
« La recherche sémantique marche, mais ça, tu peux le corriger ? » — tamponné. « Attends, frère. » tap tap. « C’est bon. » « Où est hih ? » « Aux toilettes. » « À qui appartient geworfen ? » « Laisse juste un mot. »
[lien supprimé]
Réactions sur Hacker News
Le résumé en bas de page était marquant
Après avoir construit et étendu le projet pendant des années puis analysé les données, il s’est avéré que créer sa propre solution avait une faible valeur au regard du temps investi
Au départ, on s’attend à des insights étonnants, mais en pratique, à part quelques graphiques intéressants, la récompense ne justifie pas les centaines d’heures passées
Le mouvement « Quantified Self » semble peut-être plus proche du perfectionnisme obsessionnel
Des données qui semblaient d’ordinaire sans grande importance sont devenues un jour une information clé pour éviter un mauvais diagnostic cardiaque
Comme il y avait un historique stable sur une longue période, le médecin a pu corriger un jugement erroné
La valeur des données réside dans cette utilité ponctuelle qui se révèle soudainement après longtemps
Même quand il m’indiquait un « bon sommeil », je le ressentais déjà, et les données n’ont pas changé mon comportement
Au final, en dehors du plaisir de la visualisation des données, il n’y a pas eu de changement concret
Calories, nutriments, sommeil, exercice, qualité de l’air, humeur, etc. : j’ai tout noté, mais au bout de quelques semaines, la limite effort/rendement devenait évidente
En revanche, quand on limite l’expérience à une certaine durée, on peut obtenir des insights utiles
Accumuler des données tous les jours peut devenir obsessionnel, mais une approche en expériences limitées dans le temps a tout à fait du sens
J’ai rassemblé 18 ans de commentaires Reddit, HN et Slashdot, ainsi que 3 ans de conversations avec des LLM, pour faire une expérience de RAG, mais cela a au contraire réduit ma créativité
Le modèle s’est retrouvé enfermé dans mes anciennes idées, et la nouveauté a disparu
Au final, les données regardent vers le passé, alors que moi, je voulais un modèle tourné vers l’avenir
Ce sont surtout les notes émotionnelles qui m’ont le plus aidé — le simple fait d’écrire ses émotions devient en soi un processus de prise de conscience et de réflexion
Relire les émotions et événements passés ne se limite pas à l’utilité : cela crée aussi la texture subtile de son propre récit personnel
Un simple calcul montre que les émissions de CO₂ liées aux voyages en avion de Felix atteignent 70 à 110 tonnes par an
En tenant compte de la référence de l’Accord de Paris (1,5 tonne par personne), cela représente 10 à 15 fois la moyenne européenne, et plus de 50 fois l’objectif 1,5 °C
Blâmer les individus est contre-productif, et ce qui provoque réellement un changement de comportement, c’est en fin de compte la structure des coûts
Même si le coût était multiplié par 10, certaines personnes continueraient à voler pour des raisons économiques
Rapporté à la distance par siège, c’est moins grave, mais cela reste tout de même un chiffre choquant
Page de statistiques
Le point essentiel, c’est qu’il est difficile d’accepter cela sans honte
Qu’un seul individu émette du CO₂ à l’échelle d’un petit pays est frappant
Il est donc probable que ses émissions totales soient bien plus élevées
D’après mon expérience, les indicateurs objectifs (nutrition, sommeil) sont utiles, mais les indicateurs subjectifs (humeur, stress) varient trop pour être vraiment significatifs
L’essentiel, c’est de réduire les frictions de saisie des données et de faciliter la visualisation
J’ai automatisé cela avec iPhone Action + Obsidian + script QuickAdd, puis visualisé avec Dataview et Chart.js
Je suis très satisfait de cette combinaison
Je développe une application de self-tracking appelée Reflect, et j’aimerais avoir ton avis
Lien vers l’app Reflect
Quand on enregistre régulièrement, on finit par reconnaître ses propres schémas émotionnels, et on se trouve moins d’excuses
Beaucoup de gens se montrent cyniques, mais la visualisation et l’ampleur des données de ce projet sont vraiment impressionnantes
En particulier, la manière de représenter « My Life in Weeks » est élégante, et j’aimerais bien l’essayer moi aussi
Il y avait une blague disant que « si on interroge la base Palantir DB avec mon identifiant humain, toutes les données de ma vie vont ressortir »
Ce projet est à la fois mon rêve et mon cauchemar
Autrefois, j’étais à fond dans le mouvement Quantified Self, je manipulais Fitbit et l’API Withings, mais la fatigue du suivi a fini par grignoter mon intérêt
Maintenant, j’espère que les LLM pourront réduire ce coût
Récemment, je suis les nutriments avec MacroFactor, et pour la première fois, j’ai l’impression que les données débouchent sur l’action
J’ai aussi automatisé les données financières et bouclé ma préparation fiscale avec l’API Plaid
En conclusion, tout construire soi-même est excessif, mais bien exploiter seulement une partie des données a déjà beaucoup de valeur
Par exemple, quand je portais un GCM, j’essayais inconsciemment d’agir plus sainement
Plus que l’analyse des données, c’est l’observation elle-même qui provoque le changement de comportement
La formule « en hiver, l’exposition à l’énergie solaire est faible » m’a fait sourire
Peut-être que cette phrase décrit aussi la manière de penser visuelle de l’ensemble du projet
J’ai construit un système similaire, mais beaucoup plus simple
J’ai intégré dans SQLite Apple Health, des CSV bancaires et des données de commits Git
Ce qui s’est révélé vraiment utile, ce sont des requêtes simples — corrélation entre temps de sommeil et fréquence des commits, flambée des dépenses au démarrage d’un projet, etc.
L’essentiel est de rassembler les données au même endroit ; au-delà, la limite effort/rendement devient importante
Je ne suis pas à l’aise avec le fait que mes données soient stockées chez des services tiers
En revanche, combiner plusieurs sources pour former une vue d’ensemble est intéressant
Cela dit, relier données de santé, localisation et météo me semble d’une utilité peu claire
Ce genre de projet est bien plus rassurant quand il est auto-hébergé
L’idée d’une base de données personnelle unique et interrogeable est séduisante
Mais la vraie difficulté n’est pas le stockage : c’est la collecte et la normalisation des données
Les entreprises rencontrent le même problème lorsqu’elles intègrent des informations de sources multiples dans une Company Intelligence DB unique
Une approche consistant à contrôler le schéma dès le départ est la bonne ; le schema drift est le plus grand risque des projets de long terme
Je suis aussi curieux de savoir quel moteur de stockage est utilisé, et comment sont gérés les snapshots de données temporelles