README file from
GithubAI Wiki — Obsidian Plugin
Automatically builds and maintains a knowledge-base wiki from your notes using an LLM backend.
Key features:
- Offline-first — works with Ollama or any OpenAI-compatible server; data never leaves your machine
- Compounding knowledge — each Ingest enriches the wiki; links and pages accumulate automatically
- Real-time transparency — agent step progress visible live in the sidebar panel
- Dual backends — Native Agent (Ollama / OpenAI) and Claude Agent; switchable in settings
Operations: Ingest · Query · Lint · Fix · Init · Format · Chat
Requirements: Obsidian 1.4+, desktop (mobile: Query only). For Claude Agent: iclaude CLI.
AI Wiki — плагин Obsidian
Автоматически строит и пополняет wiki-базу знаний из ваших заметок с помощью LLM.
Почему AI Wiki:
- Офлайн по умолчанию — Ollama или любой OpenAI-compatible сервер; данные не покидают машину
- Компаундируется — каждый Ingest обогащает базу; связи и страницы накапливаются сами
- Прозрачность — прогресс шагов агента виден в реальном времени в боковой панели
- Два бэкенда — Native Agent (Ollama / OpenAI) и Claude Agent; переключаются в настройках
Поддерживаемые бэкенды: Ollama / OpenAI-compatible (без облака) · Claude Agent (Anthropic)
Что умеет
- Ingest — разбирает заметку, извлекает сущности (люди, технологии, процессы, термины), создаёт и обновляет wiki-страницы
- Query — отвечает на вопрос по базе знаний; опционально сохраняет ответ как новую страницу с
[[WikiLinks]] - Lint — проверяет качество wiki-домена, находит неполные и устаревшие страницы
- Fix — применяет исправления по отчёту Lint: принимает инструкцию, передаёт модели, обновляет страницы. Запускается из панели после Lint.
- Init — инициализирует новый домен с нуля (структура папок,
_schema.md,_index.md) - Format — анализирует открытую markdown-страницу (вне wiki-доменов), предлагает правки форматирования (frontmatter, заголовки, таблицы, mermaid, описания изображений). Preview сохраняется в
!Temp/. Уточнение через чат, кнопки Apply/Cancel. Жёсткий инвариант: запрещено добавлять/удалять факты или искажать смысл — только перефраз для ясности. - Chat — интерактивный чат в боковой панели; доступен после Lint и Query для уточнения результатов.
Fix, Format и Chat запускаются кнопками в боковой панели, а не через Command Palette.
Прогресс каждой операции виден в реальном времени в боковой панели Obsidian.
Мобильная версия: на мобильных устройствах работает только Query. Ingest, Lint и Init — только desktop. Бэкенд Claude Agent на мобильном автоматически переключается на Native Agent.
Быстрый старт: Native Agent (Ollama)
Не требует внешних аккаунтов — LLM работает локально.
1. Установите Ollama
Скачайте с ollama.com и запустите:
ollama pull llama3.2
2. Установите плагин
Скопируйте папку плагина в vault:
# вариант — симлинк для разработки
ln -s /path/to/obsidian-llm-wiki ~/.config/obsidian/Plugins/obsidian-llm-wiki
Или скопируйте папку вручную в <vault>/.obsidian/plugins/obsidian-llm-wiki/.
3. Включите плагин
Obsidian → Settings → Community plugins → найти «AI Wiki» → включить.
4. Настройте
Settings → AI Wiki:
| Параметр | Значение |
|---|---|
| Backend | Native Agent (OpenAI-compatible) |
| Base URL | http://localhost:11434/v1 |
| API Key | ollama |
| Модель | llama3.2 |
| Temperature | 0.2 |
| Max tokens | 4096 |
5. Создайте домен
Домен — это пара «папка с источниками → папка wiki». Команда:
Command Palette → AI Wiki: Init домена → введите имя домена (например, work) → снимите флаг Dry Run → запустите.
Плагин создаст структуру папок и служебные файлы (_schema.md, _index.md).
6. Первый Ingest
- Откройте любую заметку в Obsidian
Command Palette→AI Wiki: Ingestion активного файла- Следите за прогрессом в боковой панели
- После завершения — новые wiki-страницы появятся в папке домена
Быстрый старт: Claude Agent
Для пользователей с установленным Claude Code CLI.
1. Требования
- Установленный
iclaude.sh/iclaude/claude(Claude Code CLI) - Скилл
llm-wikiв директории<repo>/.claude-isolated/skills/llm-wiki/
2. Установите плагин
Аналогично шагам 2–3 секции Native Agent выше.
3. Настройте
Settings → AI Wiki:
| Параметр | Значение |
|---|---|
| Backend | Claude Agent |
| Путь к Claude Code | /home/user/Documents/Project/iclaude/iclaude.sh |
| Путь к навыку llm-wiki | /home/user/Documents/Project/iclaude/.claude-isolated/skills/llm-wiki |
| Модель | sonnet |
| Таймауты | 300/300/900/3600 |
4. Первый Ingest
Аналогично шагу 6 секции Native Agent выше.
Команды
Все команды доступны через Command Palette (Ctrl+P / Cmd+P). Fix, Format и Chat — кнопки в боковой панели.
| Команда | Действие | Результат |
|---|---|---|
AI Wiki: Открыть панель |
Показать боковую панель | Живой лог операций, история |
AI Wiki: Ingestion активного файла |
Извлечь сущности из текущей заметки | Новые/обновлённые wiki-страницы (только desktop) |
AI Wiki: Запрос |
Задать вопрос по базе знаний | Ответ в панели с [[WikiLinks]] |
AI Wiki: Запрос и сохранить как страницу |
Вопрос + сохранить ответ | Новая wiki-страница, открывается автоматически |
AI Wiki: Lint домена |
Проверить качество wiki | Отчёт о проблемах в панели (только desktop) |
AI Wiki: Init домена |
Инициализировать новый домен | Структура wiki-папок и служебные файлы (только desktop) |
AI Wiki: Отмена операции |
Остановить текущую операцию | SIGTERM → SIGKILL через 3с |
Справочник настроек
Общие (оба бэкенда)
| Параметр | Описание | По умолчанию |
|---|---|---|
| Backend | claude-agent или native-agent |
claude-agent |
| Лимит истории | Максимум записей в истории панели | 20 |
| Лог агента | Включить запись JSONL-лога агента; путь фиксирован в коде | выкл |
Native Agent
| Параметр | Описание | По умолчанию |
|---|---|---|
| Base URL | OpenAI-compatible endpoint | http://localhost:11434/v1 |
| API Key | ollama для Ollama; sk-... для OpenAI |
ollama |
| Модель | Имя модели: llama3.2, mistral, gpt-4o... |
llama3.2 |
| Temperature | 0.0–1.0. Низкая (0.1–0.3) = точные факты |
0.2 |
| Max tokens | Макс. токенов в ответе; ≥ 4096 для wiki-страниц | 4096 |
| Top-p | Nucleus sampling 0.0–1.0; пусто = отключено |
— |
| Request timeout (сек) | Таймаут HTTP; для больших моделей Ollama ≥ 300 | 300 |
| num_ctx | Размер контекста (только Ollama); пусто = дефолт модели | — |
| System prompt | Системный промпт; перезаписывает встроенный при изменении | встроенный |
Claude Agent
| Параметр | Описание | По умолчанию |
|---|---|---|
| Путь к Claude Code | Полный путь к iclaude.sh / iclaude / claude |
— |
| Путь к навыку llm-wiki | Полный путь к папке навыка (содержит shared/domain-map-*.json) |
— |
| Allowed tools | Список через запятую | Read,Edit,Write,Glob,Grep |
| Модель | Пресет (opus/sonnet/haiku) или произвольный ID (claude-opus-4-7) |
дефолт claude |
| Таймауты | ingest/query/lint/init в секундах через / |
300/300/900/3600 |
| Показывать raw JSON | Отображать сырые JSON-события в панели | выкл |
Graph
| Параметр | Описание | По умолчанию |
|---|---|---|
| graphDepth | Глубина обхода графа при построении контекста запроса | 1 |
| hubThreshold | Минимальная степень узла для признания «хабом» | 20 |
Синхронизация
Файл <plugin-dir>/local.json хранит machine-specific путь до iclaude.sh. При использовании Obsidian Sync / git / Syncthing для папки .obsidian/plugins/obsidian-llm-wiki/ исключите local.json из синка, иначе путь будет перезаписан на других машинах.
Карта доменов хранится в !Wiki/_domain.json (внутри vault) и нормально синхронизируется вместе с заметками.
Документация
- docs/dev.md — сборка, установка, smoke-test чеклист для разработчиков
- docs/publishing.md — публикация релиза