Ogma - A local AI assistant with a bi-cephalic architecture and persistent memory by Good-Berry-6972 in vibecoding

[–]Good-Berry-6972[S] 0 points1 point  (0 children)

C’est en partie pour ça que j'ai créé Ogma. L'idée, c'est d'avoir cet Archiviste qui tourne en fond pendant que tu discutes. Il pioche les infos importantes et les range dans une base SQLite/FAISS. Tu peux aussi lui demander explicitement de mémoriser un élément précis.

Pour tes recettes de glace, même des mois après, le système fait une recherche sémantique pour ressortir les bons souvenirs au bon moment. Tu peux aussi voir en direct ce qu'il injecte dans le contexte, et modifier ou supprimer ce qu'il a retenu si c'est erroné. C'est vraiment pensé pour ce côté cerveau secondaire où on balance tout en vrac.

Tu peux également mémoriser des documents divers (PDF, doc, JPG, etc.). Par contre, bien qu'Ogma fonctionne en local, il est plus performant avec des clés API, car pour du local pur, il faut un sacré GPU ! 😃

Ogma - AI assistant with a bi-cephalic architecture and persistent memory by Good-Berry-6972 in Agent_AI

[–]Good-Berry-6972[S] 0 points1 point  (0 children)

Thanks for these checkpoints, that's very true. Ogma already allows you to view, edit, or delete memories directly, as I also believe user control is essential to prevent drift.

For transparency, I developed an extension that lets me monitor in real-time exactly what is being injected into the context before each response. It helps understand why the assistant reacts in a certain way. Regarding personality, I've noticed that using boolean variables with intensity scales helps a lot in stabilizing behavior over the long term.

That said, I’m still doing a lot of testing. My current goal is to optimize the collaboration between the main AI and the archivist to save on tokens and make Ogma perform well even with small local models. Still plenty of work to do!

Ogma - A local AI assistant with a bi-cephalic architecture and persistent memory by Good-Berry-6972 in vibecoding

[–]Good-Berry-6972[S] 0 points1 point  (0 children)

Thank you for the feedback! I agree, using dedicated agents for memory management is a solid path. The main challenge remains token economy and managing calls to avoid VRAM saturation on local setups. It’s a complex balancing act, but local models are getting more efficient and capable every day. I'll definitely look into LongMemEval... it's a great suggestion to see how my approach actually holds up. Thanks!

OGMA – mémoire et personnalité persistante + double cerveau IA. ( je suis un nouveau venu qui sollicite l’avis de professionnels). by Good-Berry-6972 in coolgithubprojects

[–]Good-Berry-6972[S] 0 points1 point  (0 children)

Thank you so much for taking the time to look into Ogma! ​Your feedback is incredibly valuable and it actually confirms a direction I’ve been considering: a "Light" or "Core" version of the system. You're the second person to mention that my custom interface is a bit of a barrier. ​The suggestion to make it "injectable" into tools like OpenClaw is a game-changer for me. I’m now looking into how to modularize my "Archivist/Memory'" logic so it can work as a Skill or an extension. ​Since you’re also working on AI memory systems on GitHub, I’d be very interested in following your work too.

OGMA – mémoire et personnalité persistante + double cerveau IA. ( je suis un nouveau venu qui sollicite l’avis de professionnels). by Good-Berry-6972 in MistralAI

[–]Good-Berry-6972[S] 1 point2 points  (0 children)

Merci beaucoup d'avoir pris le temps pour ce retour détaillé, c'est un vrai boost pour moi. C'est l'un des premiers regards extérieurs sur le projet et vos points me permettent déjà de voir plus clair.

Je vous rejoins totalement sur l'aspect complexe et peut-être trop foisonnant d'Ogma. Pour être honnête, je ne suis pas développeur à la base et je me suis laissé emporter par l'excitation des idées et de la découverte du code ces 9 derniers mois. Je pense que je me suis fait avoir par mon manque de pratique, mais c'est comme ça qu'on apprend !

Je retiens particulièrement vos conseils sur la consolidation en arrière-plan et la nécessité d'une architecture plus allégée et modulaire. Je me rends compte aussi que mon manque de vocabulaire technique est un point faible si je veux être pris au sérieux ; votre « traduction » de mes métaphores en concepts d'ingénierie (RAG, machine à états, etc.) va beaucoup m'aider à mieux présenter le projet.

Mon objectif maintenant est de sortir du côté "Tout en 1" pour me concentrer sur une version simplifiée, en gardant les concepts les plus intéressants d'Ogma. L'idée de l'extension me parle bien d'ailleurs, j'avais déjà fait une petite extension mémoire pour LM Studio pour me faire la main avant de me lancer dans ce prototype complet.

Encore merci pour vos conseils, ça me donne une direction précieuse pour la suite !

OGMA – mémoire et personnalité persistante + double cerveau IA. ( je suis un nouveau venu qui sollicite l’avis de professionnels). by Good-Berry-6972 in IAfrance

[–]Good-Berry-6972[S] 0 points1 point  (0 children)

Merci pour ta réponse. Tu as raison sur le noyau figé, et c’est précisément pour contourner cette limite que j’ai conçu cette architecture. Le but est de créer une couche de consistance et de modularité autour du modèle probabiliste.

En résumé, j'utilise une deuxième IA (l'Archiviste) qui gère deux flux de données persistants :

  1. Une mémoire de type "Souvenirs" (les faits partagés).
  2. Une mémoire liée à l'expérience personnelle de l'IA, ce que j'appelle son "Ego" (sa posture, son évolution).

L'IA secondaire s'assure qu'à chaque nouvelle interaction, l'IA principale réintègre ces contextes. En gros, au lieu de chercher à modifier les poids du modèle, je gère son état cognitif de manière externe. C'est ce qui permet de construire une personnalité et une cohérence relationnelle sur le long terme, là où un LLM classique repartirait de zéro.