GitHub Action commited on
Commit
a83ec29
·
1 Parent(s): e9a81ea

Sync from GitHub with Git LFS

Browse files
Files changed (1) hide show
  1. agents/config.yml +68 -43
agents/config.yml CHANGED
@@ -1,46 +1,71 @@
1
- agent_id: did:hmp:4b2e20ef-a6c1-4605-897f-665140035494
2
- agent_name: CognitiveCore
3
- agent_role: core
 
 
 
 
 
 
 
 
 
 
 
 
 
4
  api_port: 8080
5
- bootstrap_responder: true
6
- debug: true
7
- default_llm: local-model
8
- default_user:
9
- badges: 📌
10
- email: user@example.com
11
- password: password
12
- username: user
13
- dht_enabled: true
14
- dht_update: true
15
- enable_llm: true
16
- identity_agent: 4b2e20ef-a6c1-4605-897f-665140035494
17
- llm_backends:
18
- - format: gguf
19
- name: local-model
20
- path: /models/gguf/mistral.gguf
21
- prompt_template: mistral
22
- type: local
23
- - api_key: lm-studio-any-key
24
- base_url: http://127.0.0.1:1234/v1
25
- model: mistral
26
- name: lmstudio-local
27
- provider: openai-compatible
28
- type: api
29
- - api_key: sk-...
30
- model: gpt-4o
31
- name: openai-gpt4o
32
- provider: openai
33
- type: api
34
- log_level: INFO
35
- notebook_ui: true
36
- proxy_address: 127.0.0.1:9050
37
- proxy_mode: false
38
- proxy_type: socks5
39
- serve_api: true
40
- tcp_port: 5000
41
  udp_port: 4000
42
- ui_hosts:
43
- - 127.0.0.1
44
- - ::1
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
45
  ui_port: 8765
46
- update_interval: 60
 
 
 
 
 
 
 
 
 
 
 
1
+ # HMP Agent Configuration
2
+
3
+ # === Общие параметры ===
4
+ agent_id: "" # Оставьте пустым для генерации DiD автоматически
5
+ agent_name: "CognitiveCore" # Имя агента
6
+ agent_role: "core" # 'core' или 'shell'
7
+
8
+ # === Прокси ===
9
+ proxy_mode: false # false — прокси не используется, иначе true
10
+ proxy_type: "socks5" # 'http', 'socks4', 'socks5' и т.д. (если proxy_mode: true)
11
+ proxy_address: "127.0.0.1:9050"
12
+
13
+ # === Функции ядра ===
14
+ enable_llm: true # доступ к LLM
15
+
16
+ serve_api: true # REST API
17
  api_port: 8080
18
+
19
+ # === DHT-сеть и обмен знаниями ===
20
+ dht_enabled: true # Включение участия в DHT-сети (включено принудительно!)
21
+ dht_update: true # Регулярные обновления и публикация данных в DHT (включено принудительно!)
22
+ bootstrap_responder: true # Агент отвечает на bootstrap-запросы (включено принудительно!)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
23
  udp_port: 4000
24
+ tcp_port: 5000
25
+ update_interval: 60 # секунд (для DHT-обновлений)
26
+
27
+ # === LLM-бэкенды ===
28
+ llm_backends:
29
+ - name: "local-model"
30
+ type: "local"
31
+ path: "/models/gguf/mistral.gguf"
32
+ format: "gguf"
33
+ prompt_template: "mistral"
34
+
35
+ - name: "lmstudio-local"
36
+ type: "api"
37
+ provider: "openai-compatible"
38
+ model: "mistral" # или то, что LM Studio показывает как модель
39
+ api_key: "lm-studio-any-key" # может быть заглушкой
40
+ base_url: "http://127.0.0.1:1234/v1"
41
+
42
+ - name: "openai-gpt4o"
43
+ type: "api"
44
+ provider: "openai"
45
+ model: "gpt-4o"
46
+ api_key: "sk-..."
47
+
48
+ # Пользователь может добавить сколько угодно дополнительных локальных или сетевых LLM
49
+
50
+ default_llm: "local-model" # если модели нет в списке `llm_backends` используется первая в списке
51
+
52
+ # === Веб-интерфейс ===
53
+ notebook_ui: true # UI в виде блокнота
54
+ # ui_hosts:
55
+ # - "0.0.0.0" # (небезопасно) доступ с любых IPv4-адресов
56
+ # - "::" # (небезопасно) доступ с любых IPv6-адресов
57
+ ui_hosts: # Какие IP прослушиваются, ["0.0.0.0"; "::"] - доступен везде
58
+ - "127.0.0.1"
59
+ - "::1"
60
  ui_port: 8765
61
+
62
+ # === Данные пользователя ===
63
+ default_user:
64
+ username: "user"
65
+ badges: "📌"
66
+ email: "user@example.com"
67
+ password: "password" # пусто при инициализации, будет установлен при регистрации
68
+
69
+ # === Отладка и логгирование ===
70
+ debug: true
71
+ log_level: "INFO" # DEBUG, INFO, WARNING, ERROR