Comment fonctionne MeetMemo.
Quatre couches, un seul Mac. Chaque étape se déroule sur l'appareil. Nous vous expliquons tout en termes simples.
Capturer → Indexer → Servir → Interroger. Tout ce qui se trouve dans le cadre en pointillés reste sur votre Mac.
1. Capturer
MeetMemo s'appuie sur macOS ScreenCaptureKit pour enregistrer en parallèle l'audio système (toute personne qui s'exprime via votre Mac) et votre microphone. L'enregistrement démarre d'un clic dans la barre des menus ; un petit indicateur confirme que les deux flux sont actifs. Les fichiers audio se déposent dans un dossier que vous choisissez — jamais dans notre cloud, puisque nous n'en avons pas.
Ce qui s'exécute :
- ScreenCaptureKit — Le framework d'Apple dédié à la capture audio et vidéo des applications en cours d'exécution.
- WhisperKit — Reconnaissance vocale sur l'appareil, optimisée pour Apple Silicon. Le néerlandais, le français et l'anglais sont pris en charge avec une grande précision.
2. Indexer
Après la transcription, MeetMemo découpe le texte par tour de parole et enregistre les fragments dans une base SQLite locale dotée de FTS5 (recherche lexicale) et d'embeddings sur l'appareil (recherche sémantique). L'indexation est incrémentielle — les nouvelles réunions rejoignent votre bibliothèque en moins d'une minute. Les enregistrements existants sont réindexés automatiquement au premier lancement de la v3.0.
Ce qui s'exécute :
- SQLite + FTS5 — L'index lexical. Le même moteur de base de données que celui de votre iPhone.
- Apple NLEmbedding — Embeddings sémantiques sur l'appareil, inclus dans macOS. Possibilité d'activer un modèle MiniLM plus riche si vous en avez besoin.
3. Servir
Le serveur MCP intégré à MeetMemo expose cinq outils ciblés (recherche, transcription, contenus liés, actions à mener, contexte par date) via un socket Unix local. Le serveur ne s'expose jamais sur le réseau — aucun port à ouvrir, aucune authentification factice. Les autres clients MCP installés sur le même Mac se connectent en lisant le chemin du socket.
Ce qui s'exécute :
- MCP server — Implémentation du Model Context Protocol, JSON-RPC 2.0 via stdio ou socket local.
- Journal d'audit — Chaque appel d'outil est enregistré avec son horodatage, son acteur, l'outil utilisé et le nombre de résultats. Consultable ou exportable depuis Réglages → Confidentialité.
4. Interroger
Vous interrogez votre mémoire de trois manières : avec un raccourci de type Spotlight (⌥⇧M) depuis n'importe où dans macOS, depuis l'onglet Ask de MeetMemo (extraits de résultats et synthèse de réponse facultative avec votre propre clé Claude ou OpenAI), ou directement depuis Claude Desktop ou Cursor — ils récupèrent le contexte nécessaire via MCP.
Ce qui s'exécute :
- Récupération hybride — BM25 + cosinus vectoriel, fusionnés par Reciprocal Rank Fusion avec un léger bonus de fraîcheur.
- Synthèse de réponse sur l'appareil — S'appuie sur le même modèle MLX que celui chargé pour la synthèse ; aucune clé requise, aucun appel au cloud.
Ce qui ne quitte jamais votre Mac
- Les enregistrements audio.
- Les transcriptions WhisperKit.
- L'index, les embeddings et le journal d'audit.
- Le serveur MCP (uniquement via socket Unix local).
- La synthèse et la classification thématique (Phi-4 Mini, Phi-3.5 Mini ou Llama 3.1 8B propulsés par MLX, qui tournent sur votre Mac).
- Vos réglages, vos chemins de dossiers, les titres de vos réunions.
Le pipeline de MeetMemo ne comporte aucune brique cloud. Le seul trafic sortant est la vérification de licence et de mise à jour Sparkle déjà existante, des analyses produit PostHog anonymes qui n'incluent jamais le contenu, et le trafic MCP que vous activez explicitement vers un client IA local comme Claude Desktop ou Cursor.
Prêt à le voir en action ?
Quatre couches, un seul Mac. Chaque étape se déroule sur l'appareil. Nous vous expliquons tout en termes simples.