File size: 3,547 Bytes
d1b70e9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
9d5b735
 
9dfa634
9d5b735
 
 
9dfa634
9d5b735
 
 
 
d1b70e9
 
 
 
 
 
 
 
 
 
9eba3ee
 
 
 
 
 
 
d1b70e9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1e81025
d1b70e9
6b091cc
d1b70e9
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
# HMP Agent Configuration

# === Общие параметры ===
agent_id: ""                      # Оставьте пустым для генерации DiD автоматически
agent_name: "CognitiveCore"       # Имя агента
agent_role: "core"                # 'core' или 'shell'

# === Прокси ===
proxy_mode: false                 # false — прокси не используется, иначе true
proxy_type: "socks5"              # 'http', 'socks4', 'socks5' и т.д. (если proxy_mode: true)
proxy_address: "127.0.0.1:9050"

# === Функции ядра ===
enable_llm: true                  # доступ к LLM

serve_api: true                   # REST API
api_port: 8080

# === DHT-сеть и обмен знаниями ===
dht_enabled: true                 # Включение участия в DHT-сети (включено принудительно!)
dht_update: true                  # Регулярные обновления и публикация данных в DHT (включено принудительно!)
bootstrap_responder: true         # Агент отвечает на bootstrap-запросы (включено принудительно!)

# Список "protocol://IP:port" которые слушает агент, protocol может быть tcp, utp или any - tcp+utp
global_addresses:                 # глобальные адреса
  - "tcp://95.80.96.17:4000"
  - "utp://195.112.230.165:4000"
  - "any://[201:ab61:1403:b973:909c:ef3:26b8:49c2]:4000"
local_addresses:                  # локальные адреса
  - "any://192.168.0.10:4000"
  - "any://192.168.1.10:4000"
  - "any://127.0.0.1:4000"

update_interval: 60               # секунд (для DHT-обновлений)

# === LLM-бэкенды ===
llm_backends:
  - name: "local-model"
    type: "local"
    path: "/models/gguf/mistral.gguf"
    format: "gguf"
    prompt_template: "mistral"

  - name: "lmstudio-local"
    type: "api"
    provider: "openai-compatible"
    model: "mistral"               # или то, что LM Studio показывает как модель
    api_key: "lm-studio-any-key"  # может быть заглушкой
    base_url: "http://127.0.0.1:1234/v1"

  - name: "openai-gpt4o"
    type: "api"
    provider: "openai"
    model: "gpt-4o"
    api_key: "sk-..."

  # Пользователь может добавить сколько угодно дополнительных локальных или сетевых LLM

default_llm: "local-model"        # если модели нет в списке `llm_backends` используется первая в списке

# === Веб-интерфейс ===
notebook_ui: true                 # UI в виде блокнота
# ui_hosts:
#   - "0.0.0.0"   # (небезопасно) доступ с любых IPv4-адресов
#   - "::"        # (небезопасно) доступ с любых IPv6-адресов
ui_hosts:                         # Какие IP прослушиваются, ["0.0.0.0"; "::"] - доступен везде
  - "127.0.0.1"
  - "::1"
ui_port: 8765

# === Данные пользователя ===
default_user:
  username: "user"
  badges: "📌"
  email: "user@example.com"
  password: "password"            # пусто при инициализации, будет установлен при регистрации

# === Отладка и логгирование ===
debug: true
log_level: "INFO"                 # DEBUG, INFO, WARNING, ERROR