Zo werkt MeetMemo.
Vier lagen, één Mac. Elke stap gebeurt op je toestel. We leggen ze stuk voor stuk uit in begrijpelijke taal.
Opnemen → Indexeren → Aanbieden → Bevragen. Alles binnen de stippellijn blijft op je Mac.
1. Opnemen
MeetMemo gebruikt macOS ScreenCaptureKit om systeemgeluid (iedereen die via je Mac spreekt) en je microfoon parallel op te nemen. Een klik in de menubalk start de opname; een klein label bevestigt dat beide stromen actief zijn. De audiobestanden komen terecht in een map die jij kiest — nooit in onze cloud, want die hebben we niet.
Wat er draait:
- ScreenCaptureKit — Het framework van Apple voor het opnemen van audio en video uit actieve apps.
- WhisperKit — Spraak-naar-tekst op je toestel, geoptimaliseerd voor Apple Silicon. Nederlands, Frans en Engels worden met hoge nauwkeurigheid ondersteund.
2. Indexeren
Na de transcriptie verdeelt MeetMemo het transcript per spreekbeurt en schrijft het de fragmenten weg naar een lokale SQLite-databank met FTS5 (lexicaal) en embeddings op je toestel (semantisch). Het indexeren gebeurt incrementeel — nieuwe vergaderingen staan in minder dan een minuut in je bibliotheek. Bestaande opnames worden bij de eerste start van v3.0 automatisch achteraf geïndexeerd.
Wat er draait:
- SQLite + FTS5 — De lexicale index. Dezelfde databasemotor die je iPhone gebruikt.
- Apple NLEmbedding — Semantische embeddings op je toestel, ingebouwd in macOS. Optioneel kun je kiezen voor een rijker MiniLM-model.
3. Aanbieden
De ingebouwde MCP-server van MeetMemo biedt vijf gerichte tools aan (zoeken, transcript, gerelateerd, actiepunten, context per datum) via een lokale Unix-socket. De server koppelt zich nooit aan het netwerk — geen poort om vrij te geven, geen authenticatietoneel. Andere MCP-clients op dezelfde Mac maken verbinding door het socketpad in te lezen.
Wat er draait:
- MCP server — Implementatie van het Model Context Protocol, JSON-RPC 2.0 via stdio of lokale socket.
- Auditlog — Elke tool-oproep wordt geregistreerd met timestamp, actor, tool en aantal resultaten. Te bekijken of te exporteren via Instellingen → Privacy.
4. Bevragen
Je raadpleegt je geheugen op drie manieren: via een Spotlight-achtige sneltoets (⌥⇧M) overal in macOS, via het Ask-tabblad in MeetMemo (fragmentresultaten plus optionele antwoordsynthese met je eigen Claude- of OpenAI-sleutel) of rechtstreeks vanuit Claude Desktop of Cursor — die halen de context die ze nodig hebben via MCP op.
Wat er draait:
- Hybride ophaling — BM25 + vectorcosinus, samengevoegd met Reciprocal Rank Fusion en een lichte recentheidsboost.
- Antwoordsynthese op je toestel — Gebruikt hetzelfde MLX-model dat voor de samenvattingen wordt geladen; geen sleutel nodig, geen cloudoproep.
Wat je Mac nooit verlaat
- Audio-opnames.
- WhisperKit-transcripten.
- Index, embeddings en auditlog.
- MCP-server (uitsluitend via lokale Unix-socket).
- Samenvattingen en thema-classificatie (Phi-4 Mini, Phi-3.5 Mini of Llama 3.1 8B op MLX, draaiend op je Mac).
- Je instellingen, je mappaden, je vergadertitels.
De pipeline van MeetMemo bevat geen enkele cloudcomponent. Het enige uitgaande verkeer is de bestaande licentie- en Sparkle-updatecheck, anonieme PostHog-productanalyse zonder enige inhoud, en het MCP-verkeer dat je zelf inschakelt naar een lokale AI-client zoals Claude Desktop of Cursor.
Klaar om het zelf te ervaren?
Vier lagen, één Mac. Elke stap gebeurt op je toestel. We leggen ze stuk voor stuk uit in begrijpelijke taal.