AI Wiki

by Ilya
5
4
3
2
1
Score: 35/100
New Plugin

Description

This plugin has not been manually reviewed by Obsidian staff. AI-powered compoundable knowledge base — extracts, synthesizes and maintains a wiki from raw sources.

Reviews

No reviews yet.

Stats

stars
downloads
0
forks
0
days
NaN
days
NaN
days
0
total PRs
0
open PRs
0
closed PRs
0
merged PRs
0
total issues
0
open issues
0
closed issues
0
commits

Latest Version

Invalid date

Changelog

README file from

Github

AI Wiki — Obsidian Plugin

Automatically builds and maintains a knowledge-base wiki from your notes using an LLM backend.

Key features:

  • Offline-first — works with Ollama or any OpenAI-compatible server; data never leaves your machine
  • Compounding knowledge — each Ingest enriches the wiki; links and pages accumulate automatically
  • Real-time transparency — agent step progress visible live in the sidebar panel
  • Dual backends — Native Agent (Ollama / OpenAI) and Claude Agent; switchable in settings

Operations: Ingest · Query · Lint · Fix · Init · Format · Chat

Requirements: Obsidian 1.4+, desktop (mobile: Query only). For Claude Agent: iclaude CLI.


AI Wiki — плагин Obsidian

Автоматически строит и пополняет wiki-базу знаний из ваших заметок с помощью LLM.

Почему AI Wiki:

  • Офлайн по умолчанию — Ollama или любой OpenAI-compatible сервер; данные не покидают машину
  • Компаундируется — каждый Ingest обогащает базу; связи и страницы накапливаются сами
  • Прозрачность — прогресс шагов агента виден в реальном времени в боковой панели
  • Два бэкенда — Native Agent (Ollama / OpenAI) и Claude Agent; переключаются в настройках

Поддерживаемые бэкенды: Ollama / OpenAI-compatible (без облака) · Claude Agent (Anthropic)

Что умеет

  • Ingest — разбирает заметку, извлекает сущности (люди, технологии, процессы, термины), создаёт и обновляет wiki-страницы
  • Query — отвечает на вопрос по базе знаний; опционально сохраняет ответ как новую страницу с [[WikiLinks]]
  • Lint — проверяет качество wiki-домена, находит неполные и устаревшие страницы
  • Fix — применяет исправления по отчёту Lint: принимает инструкцию, передаёт модели, обновляет страницы. Запускается из панели после Lint.
  • Init — инициализирует новый домен с нуля (структура папок, _schema.md, _index.md)
  • Format — анализирует открытую markdown-страницу (вне wiki-доменов), предлагает правки форматирования (frontmatter, заголовки, таблицы, mermaid, описания изображений). Preview сохраняется в !Temp/. Уточнение через чат, кнопки Apply/Cancel. Жёсткий инвариант: запрещено добавлять/удалять факты или искажать смысл — только перефраз для ясности.
  • Chat — интерактивный чат в боковой панели; доступен после Lint и Query для уточнения результатов.

Fix, Format и Chat запускаются кнопками в боковой панели, а не через Command Palette.

Прогресс каждой операции виден в реальном времени в боковой панели Obsidian.

Мобильная версия: на мобильных устройствах работает только Query. Ingest, Lint и Init — только desktop. Бэкенд Claude Agent на мобильном автоматически переключается на Native Agent.


Быстрый старт: Native Agent (Ollama)

Не требует внешних аккаунтов — LLM работает локально.

1. Установите Ollama

Скачайте с ollama.com и запустите:

ollama pull llama3.2

2. Установите плагин

Скопируйте папку плагина в vault:

# вариант — симлинк для разработки
ln -s /path/to/obsidian-llm-wiki ~/.config/obsidian/Plugins/obsidian-llm-wiki

Или скопируйте папку вручную в <vault>/.obsidian/plugins/obsidian-llm-wiki/.

3. Включите плагин

Obsidian → Settings → Community plugins → найти «AI Wiki» → включить.

4. Настройте

Settings → AI Wiki:

Параметр Значение
Backend Native Agent (OpenAI-compatible)
Base URL http://localhost:11434/v1
API Key ollama
Модель llama3.2
Temperature 0.2
Max tokens 4096

5. Создайте домен

Домен — это пара «папка с источниками → папка wiki». Команда:

Command PaletteAI Wiki: Init домена → введите имя домена (например, work) → снимите флаг Dry Run → запустите.

Плагин создаст структуру папок и служебные файлы (_schema.md, _index.md).

6. Первый Ingest

  1. Откройте любую заметку в Obsidian
  2. Command PaletteAI Wiki: Ingestion активного файла
  3. Следите за прогрессом в боковой панели
  4. После завершения — новые wiki-страницы появятся в папке домена

Быстрый старт: Claude Agent

Для пользователей с установленным Claude Code CLI.

1. Требования

  • Установленный iclaude.sh / iclaude / claude (Claude Code CLI)
  • Скилл llm-wiki в директории <repo>/.claude-isolated/skills/llm-wiki/

2. Установите плагин

Аналогично шагам 2–3 секции Native Agent выше.

3. Настройте

Settings → AI Wiki:

Параметр Значение
Backend Claude Agent
Путь к Claude Code /home/user/Documents/Project/iclaude/iclaude.sh
Путь к навыку llm-wiki /home/user/Documents/Project/iclaude/.claude-isolated/skills/llm-wiki
Модель sonnet
Таймауты 300/300/900/3600

4. Первый Ingest

Аналогично шагу 6 секции Native Agent выше.


Команды

Все команды доступны через Command Palette (Ctrl+P / Cmd+P). Fix, Format и Chat — кнопки в боковой панели.

Команда Действие Результат
AI Wiki: Открыть панель Показать боковую панель Живой лог операций, история
AI Wiki: Ingestion активного файла Извлечь сущности из текущей заметки Новые/обновлённые wiki-страницы (только desktop)
AI Wiki: Запрос Задать вопрос по базе знаний Ответ в панели с [[WikiLinks]]
AI Wiki: Запрос и сохранить как страницу Вопрос + сохранить ответ Новая wiki-страница, открывается автоматически
AI Wiki: Lint домена Проверить качество wiki Отчёт о проблемах в панели (только desktop)
AI Wiki: Init домена Инициализировать новый домен Структура wiki-папок и служебные файлы (только desktop)
AI Wiki: Отмена операции Остановить текущую операцию SIGTERM → SIGKILL через 3с

Справочник настроек

Общие (оба бэкенда)

Параметр Описание По умолчанию
Backend claude-agent или native-agent claude-agent
Лимит истории Максимум записей в истории панели 20
Лог агента Включить запись JSONL-лога агента; путь фиксирован в коде выкл

Native Agent

Параметр Описание По умолчанию
Base URL OpenAI-compatible endpoint http://localhost:11434/v1
API Key ollama для Ollama; sk-... для OpenAI ollama
Модель Имя модели: llama3.2, mistral, gpt-4o... llama3.2
Temperature 0.01.0. Низкая (0.10.3) = точные факты 0.2
Max tokens Макс. токенов в ответе; ≥ 4096 для wiki-страниц 4096
Top-p Nucleus sampling 0.01.0; пусто = отключено
Request timeout (сек) Таймаут HTTP; для больших моделей Ollama ≥ 300 300
num_ctx Размер контекста (только Ollama); пусто = дефолт модели
System prompt Системный промпт; перезаписывает встроенный при изменении встроенный

Claude Agent

Параметр Описание По умолчанию
Путь к Claude Code Полный путь к iclaude.sh / iclaude / claude
Путь к навыку llm-wiki Полный путь к папке навыка (содержит shared/domain-map-*.json)
Allowed tools Список через запятую Read,Edit,Write,Glob,Grep
Модель Пресет (opus/sonnet/haiku) или произвольный ID (claude-opus-4-7) дефолт claude
Таймауты ingest/query/lint/init в секундах через / 300/300/900/3600
Показывать raw JSON Отображать сырые JSON-события в панели выкл

Graph

Параметр Описание По умолчанию
graphDepth Глубина обхода графа при построении контекста запроса 1
hubThreshold Минимальная степень узла для признания «хабом» 20

Синхронизация

Файл <plugin-dir>/local.json хранит machine-specific путь до iclaude.sh. При использовании Obsidian Sync / git / Syncthing для папки .obsidian/plugins/obsidian-llm-wiki/ исключите local.json из синка, иначе путь будет перезаписан на других машинах.

Карта доменов хранится в !Wiki/_domain.json (внутри vault) и нормально синхронизируется вместе с заметками.


Документация

  • docs/dev.md — сборка, установка, smoke-test чеклист для разработчиков
  • docs/publishing.md — публикация релиза