- Un puissant outil de recherche basé sur l’IA, qui utilise plusieurs LLM et la recherche web pour effectuer une analyse approfondie et itérative
- Intègre des fonctions de recherche pour arXiv, Wikipedia, Google, PubMed, DuckDuckGo, SerpAPI, le RAG local, The Guardian, etc.
- Peut être exécuté en local pour renforcer la protection de la vie privée, ou configuré avec des LLM cloud pour améliorer les performances
Fonctionnalités de recherche avancées
- Recherche approfondie automatisée : génération intelligente de questions de suivi
- Suivi et vérification des sources : suivi automatique des citations et des sources
- Analyse itérative : couverture complète grâce à une analyse itérative en plusieurs étapes
- Analyse du contenu de pages web complètes : analyse fondée sur le contenu intégral, et non sur de simples extraits
Prise en charge flexible des LLM
- Prise en charge des modèles locaux : traitement IA local basé sur Ollama
- Prise en charge des modèles cloud : prise en charge de LLM cloud comme Claude, GPT, etc.
- Compatibilité avec les modèles Langchain : prise en charge de divers modèles Langchain
- Choix du modèle : possibilité de configurer le modèle selon les performances, la vitesse de réponse, etc.
Options de sortie riches
- Résultats de recherche détaillés : fournit des rapports détaillés avec citations
- Rapport de recherche complet : fournit des résultats de recherche complets
- Résumé rapide : permet de résumer les points essentiels
- Suivi et vérification des sources : prise en charge du suivi et de la vérification des sources
Conception centrée sur la confidentialité
- Exécution locale possible : avec des modèles locaux, toutes les données restent stockées sur l’appareil de l’utilisateur
- Recherche configurable : renforce la protection de la vie privée
- Traitement des données transparent : mode de traitement des données clairement communiqué
Intégration de recherche améliorée
- Sélection automatique du moteur de recherche : choisit automatiquement le moteur selon le contenu de la requête
- Intégration de Wikipedia : recherche de faits fiables
- Intégration d’arXiv : recherche d’articles scientifiques et de travaux académiques
- Intégration de PubMed : recherche de ressources en médecine et biomédecine
- Intégration de DuckDuckGo : recherche web générale (peut être soumise à une limitation de débit)
- Intégration de SerpAPI : fournit les résultats de recherche Google (clé API requise)
- Google Programmable Search : configuration de recherche personnalisée (clé API requise)
- Intégration de The Guardian : recherche de contenus d’actualité et journalistiques (clé API requise)
- Recherche RAG locale : permet de rechercher dans des documents personnels (avec des vector embeddings)
- Recherche dans le contenu complet des pages web : permet d’explorer l’intégralité des pages web
- Filtrage et vérification des sources : possibilité de filtrer les sources fiables
- Paramètres de recherche configurables : possibilité de régler la portée, la période, etc.
Recherche de documents locaux (RAG)
- Recherche basée sur les vector embeddings : permet de rechercher du contenu dans des documents personnels
- Création de collections de documents personnalisées : permet de regrouper des documents par sujet
- Protection de la vie privée : tous les documents sont traités en local
- Chunking et recherche intelligents : découpe et recherche dans le contenu des documents
- Compatibilité avec divers formats de documents : prise en charge de PDF, texte, Markdown, etc.
- Application automatique de la métarecherche intégrée : permet de combiner recherche locale et web
Interface web
- Tableau de bord fourni : interface intuitive
- Mises à jour de progression en temps réel : fournit l’état d’avancement de la recherche en temps réel
- Gestion de l’historique de recherche : accès et gestion des recherches précédentes
- Export de rapports PDF : possibilité de télécharger les rapports de recherche en PDF
- Gestion des recherches : permet d’arrêter ou de supprimer une recherche en cours
Options de moteurs de recherche pris en charge
- Auto : sélection automatique du moteur selon la requête
- Wikipedia : adapté à la recherche d’informations générales et de faits
- arXiv : adapté à la recherche d’articles scientifiques et académiques
- PubMed : adapté à la recherche biomédicale et médicale
- DuckDuckGo : recherche web générale axée sur la protection de la vie privée
- The Guardian : recherche d’actualités et de journalisme (clé API requise)
- SerpAPI : fournit les résultats de recherche Google (clé API requise)
- Google Programmable Search : recherche personnalisée (clé API requise)
4 commentaires
nouvelles technologies. En particulier, cela cherche à les relier à l’IA.Divers réglages sont possibles dans le fichier de config. On peut limiter la base de données de recherche à PubMed uniquement, ce qui permet d’améliorer encore la qualité des sources. Il est aussi possible de définir la quantité de texte recherchée à la fois, ainsi que le nombre de chunks à créer lors de l’utilisation du RAG.
Étant donné qu’il s’agit actuellement de la version 0.01V, il est très impressionnant de voir qu’une machine locale peut produire des rapports de ce niveau. En particulier dans les sciences de la vie, les chatbots utilisent souvent des
descriptions généralisées, alors que les rapports générés par ce programme emploient une formulation très scientifique.Le programme ne prend actuellement pas en charge le coréen. Même si la question est posée en coréen, le rapport est généré en anglais.
De plus, lors de l’export en PDF, le coréen ne s’affiche pas lorsqu’on reçoit la réponse sous forme de fichier PDF.
Si les problèmes de disparition des refs pendant la génération du rapport et d’hallucinations sont résolus, je pense que ce sera un outil vraiment puissant.
Après davantage d’utilisation, il semble que sur Ollama, parmi les différents modèles, c’est surtout Qwen2.5 qui fonctionne bien. Deepseek-r1 a tendance à formuler les requêtes de façon étrange lors des recherches, ce qui l’amène à récupérer incorrectement les contenus servant de références, tandis que les modèles de la famille Gemma interprètent le prompt donné en exemple comme le véritable prompt et essaient d’y intégrer de force le contenu lié au sujet correspondant.
Commentaires Hacker News
Bravo pour cet effort en faveur d’un espace local et low-fi. Cela dit, en lisant les exemples du document, le résultat paraît un peu confus
Ce projet est génial
J’ai essayé, mais j’ai rencontré beaucoup d’erreurs et je n’ai pas pu générer de rapport. Il n’y a aucun moyen de reprendre après un échec de génération, donc si un appel API échoue, il faut tout recommencer depuis le début
À considérer aussi pour la recherche web : les API de Kagi et Tavily
Ça a l’air très cool. Je me demande comment cela se compare à la fonctionnalité RAG d’open-webui
Je me demande si quelqu’un utilise des LLM (locaux) pour rechercher directement des documents pertinents dans une collection de ressources, sans dépendre de la recherche vectorielle
Bon travail
Je me demande s’il existe un outil capable d’offrir une expérience de recherche IA et de mélanger le contenu des signets pour générer des rapports. Mes signets sont actuellement inutiles. Cela pourrait les rendre utiles
Je pense que la personne qui créera une GUI façon jeu 3D pour les LLM sera le prochain Jobs/Gates/Musk et remportera un prix Nobel. Cela rendra l’intérieur des LLM visible à des millions de personnes et résoudra le problème de l’alignement. Les ordinateurs ne se sont démocratisés qu’après l’arrivée d’OS dotés d’une interface graphique, et les chatbots actuels ressemblent à une ligne de commande. J’ai lancé ASK HN pour partager des idées sur la sécurité de l’IA
Je ne comprends pas. On est loin, même d’un niveau académique, et même du niveau codage d’un élève de primaire ; pourquoi partager ça...