aiqtech commited on
Commit
71681cd
·
verified ·
1 Parent(s): 610175b

Upload emergence_engine.py

Browse files
Files changed (1) hide show
  1. emergence_engine.py +1081 -0
emergence_engine.py ADDED
@@ -0,0 +1,1081 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """
2
+ emergence_engine.py — MAIA 창발성 발현 엔진 v1.0
3
+ 특허 제7호: 다차원 가능성 공간 탐색 및 창발적 조합 생성 엔진
4
+
5
+ [독립항 1] 5단계 창발적 조합 생성 방법:
6
+ (a) 브루트포스 전수 탐색 + 스코어링
7
+ (b) 볼츠만 분포 기반 확률적 샘플링 (온도 파라미터 T)
8
+ (c) 지식그래프 연결 탐색 (미발견 경로)
9
+ (d) 교차 융합 보너스 매트릭스
10
+ (e) 창발성 임계점 판정
11
+
12
+ [종속항 3] 엔트로피 기반 다양성 보장
13
+ [종속항 4] 다중 도메인 적용
14
+
15
+ (주) 비드래프트 / AETHER Proto-AGI
16
+ """
17
+
18
+ import math
19
+ import logging
20
+ import hashlib
21
+ import time
22
+ from typing import List, Dict, Any, Tuple, Optional, Set
23
+ from dataclasses import dataclass, field
24
+ from itertools import combinations, product
25
+ from collections import Counter, defaultdict
26
+
27
+ import numpy as np
28
+
29
+ # ── 상수 ──
30
+ DEFAULT_TEMPERATURE = 1.0 # 볼츠만 분포 기본 온도
31
+ MIN_EMERGENCE_THRESHOLD = 0.65 # 창발성 임계점 기본값
32
+ MIN_ENTROPY = 1.5 # 최소 엔트로피 (비트)
33
+ MAX_BRUTE_FORCE_COMBOS = 50000 # 전수 탐색 최대 조합 수
34
+ DEFAULT_SAMPLE_SIZE = 100 # 기본 샘플링 크기
35
+
36
+ LAYER_ORDER = ["INPUT", "TRANSFORMATION", "CONTROL", "FABRICATION", "CONTEXT", "VALUE"]
37
+
38
+ logger = logging.getLogger(__name__)
39
+
40
+
41
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
42
+ # 1. 데이터 구조
43
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
44
+
45
+ @dataclass
46
+ class IdeaVector:
47
+ """가능성 공간 내 아이디어 벡터"""
48
+ item_name: str
49
+ category: str
50
+ layer: str
51
+ layer_index: int
52
+ position: np.ndarray # N차원 좌표
53
+ relevance_score: float = 0.0
54
+ metadata: Dict[str, Any] = field(default_factory=dict)
55
+
56
+ @property
57
+ def id(self) -> str:
58
+ return hashlib.md5(f"{self.layer}:{self.category}:{self.item_name}".encode()).hexdigest()[:8]
59
+
60
+
61
+ @dataclass
62
+ class Combination:
63
+ """아이디어 조합 (2개 이상 아이디어의 융합)"""
64
+ items: List[IdeaVector]
65
+ score: float = 0.0
66
+ fusion_bonus: float = 0.0
67
+ complexity: float = 0.0
68
+ is_emergent: bool = False
69
+ emergence_level: str = "LOW"
70
+ novelty_score: float = 0.0
71
+ graph_paths: List[List[str]] = field(default_factory=list)
72
+ metadata: Dict[str, Any] = field(default_factory=dict)
73
+
74
+ @property
75
+ def layers_involved(self) -> Set[str]:
76
+ return set(item.layer for item in self.items)
77
+
78
+ @property
79
+ def n_layers(self) -> int:
80
+ return len(self.layers_involved)
81
+
82
+ @property
83
+ def description(self) -> str:
84
+ parts = [f"[{item.layer}] {item.category} > {item.item_name}" for item in self.items]
85
+ return " ⊕ ".join(parts)
86
+
87
+
88
+ @dataclass
89
+ class EmergenceResult:
90
+ """창발성 판정 결과"""
91
+ complexity: float
92
+ threshold: float
93
+ is_emergent: bool
94
+ emergence_level: str # HIGH, MODERATE, LOW
95
+ confidence: float # 0.0 ~ 1.0
96
+ contributing_factors: Dict[str, float] = field(default_factory=dict)
97
+
98
+
99
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
100
+ # 2. [독립항 전제] N차원 가능성 공간 (Possibility Space)
101
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
102
+
103
+ class PossibilitySpace:
104
+ """N차원(N≥5) 가능성 공간
105
+
106
+ 각 차원은 기술 레이어(INPUT, TRANSFORMATION, CONTROL, FABRICATION, CONTEXT, VALUE)에 대응.
107
+ 아이디어는 N차원 벡터로 공간에 배치되며, 레이어 소속 정도를 연속 좌표로 표현.
108
+ """
109
+
110
+ def __init__(self, dimensions: List[str] = None):
111
+ self.dimensions = dimensions or LAYER_ORDER
112
+ self.n_dims = len(self.dimensions)
113
+ assert self.n_dims >= 5, f"가능성 공간은 최소 5차원이어야 합니다 (현재: {self.n_dims})"
114
+ self.ideas: List[IdeaVector] = []
115
+ self._dim_index = {d: i for i, d in enumerate(self.dimensions)}
116
+ logger.info(f"✅ 가능성 공간 초기화: {self.n_dims}차원 {self.dimensions}")
117
+
118
+ def place_idea(self, item_name: str, category: str, layer: str,
119
+ relevance_score: float = 0.5, cross_layer_affinity: Dict[str, float] = None) -> IdeaVector:
120
+ """아이디어를 N차원 공간에 배치
121
+
122
+ 주(primary) 레이어에 높은 좌표, 교차 친화도에 따라 다른 차원에도 분산 배치.
123
+ 이를 통해 "순수 INPUT" 아이디어와 "INPUT+CONTROL 융합" 아이디어의 위치가 구별됨.
124
+ """
125
+ position = np.zeros(self.n_dims)
126
+ primary_idx = self._dim_index.get(layer, 0)
127
+ position[primary_idx] = relevance_score
128
+
129
+ # 교차 레이어 친화도 반영 (부(secondary) 차원에 분산)
130
+ if cross_layer_affinity:
131
+ for other_layer, affinity in cross_layer_affinity.items():
132
+ if other_layer in self._dim_index:
133
+ idx = self._dim_index[other_layer]
134
+ position[idx] = max(position[idx], affinity * 0.5)
135
+
136
+ # L2 정규화 (단위 초구면에 배치)
137
+ norm = np.linalg.norm(position)
138
+ if norm > 0:
139
+ position = position / norm
140
+
141
+ idea = IdeaVector(
142
+ item_name=item_name, category=category, layer=layer,
143
+ layer_index=primary_idx, position=position,
144
+ relevance_score=relevance_score
145
+ )
146
+ self.ideas.append(idea)
147
+ return idea
148
+
149
+ def place_from_categories(self, categories, relevance_scores: Dict):
150
+ """categories.py의 카테고리/관련성 스코어로부터 대량 배치"""
151
+ count = 0
152
+ for cat in categories:
153
+ cat_name = cat.name_ko if hasattr(cat, 'name_ko') else str(cat)
154
+ layer = getattr(cat, 'layer', 'TRANSFORMATION')
155
+ cat_data = relevance_scores.get(cat_name, {})
156
+ cat_score = cat_data.get("category_score", 0.5)
157
+ item_scores = cat_data.get("items", {})
158
+
159
+ items = cat.items if hasattr(cat, 'items') and cat.items else []
160
+ for item in items:
161
+ item_key = item.get('name', str(item)) if isinstance(item, dict) else str(item)
162
+ item_score = item_scores.get(item_key, 0.5)
163
+ combined = (cat_score + item_score) / 2
164
+ self.place_idea(item_key, cat_name, layer, relevance_score=combined)
165
+ count += 1
166
+
167
+ logger.info(f"✅ 가능성 공간 배치 완료: {count}개 아이디어 → {self.n_dims}차원 공간")
168
+ return count
169
+
170
+ def distance(self, idea_a: IdeaVector, idea_b: IdeaVector) -> float:
171
+ """두 아이디어 간 유클리드 거리 (멀수록 이종 결합)"""
172
+ return float(np.linalg.norm(idea_a.position - idea_b.position))
173
+
174
+ def cosine_similarity(self, idea_a: IdeaVector, idea_b: IdeaVector) -> float:
175
+ """두 아이디어 간 코사인 유사도"""
176
+ dot = np.dot(idea_a.position, idea_b.position)
177
+ norm_a = np.linalg.norm(idea_a.position)
178
+ norm_b = np.linalg.norm(idea_b.position)
179
+ if norm_a == 0 or norm_b == 0:
180
+ return 0.0
181
+ return float(dot / (norm_a * norm_b))
182
+
183
+ def get_ideas_by_layer(self, layer: str) -> List[IdeaVector]:
184
+ return [idea for idea in self.ideas if idea.layer == layer]
185
+
186
+ @property
187
+ def total_ideas(self) -> int:
188
+ return len(self.ideas)
189
+
190
+
191
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
192
+ # 3. [독립항 (a)] 브루트포스 전수 탐색 + 스코어링
193
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
194
+
195
+ class BruteForceExplorer:
196
+ """가능성 공간의 전수 탐색 및 스코어링 엔진
197
+
198
+ 모든 2-way (또는 k-way) 조합을 열거하고 각 조합의 융합 점수를 산출.
199
+ 대규모 공간의 경우 레이어별 대표 아이디어를 선별 후 탐색.
200
+ """
201
+
202
+ def __init__(self, space: PossibilitySpace, fusion_matrix: 'FusionBonusMatrix'):
203
+ self.space = space
204
+ self.fusion_matrix = fusion_matrix
205
+
206
+ def enumerate_all_combinations(self, k: int = 2,
207
+ max_combos: int = MAX_BRUTE_FORCE_COMBOS,
208
+ cross_layer_only: bool = True) -> List[Combination]:
209
+ """전수 탐색: k-way 조합 열거 및 스코어링
210
+
211
+ Args:
212
+ k: 조합 크기 (기본 2-way)
213
+ max_combos: 최대 조합 수 (메모리/시간 제한)
214
+ cross_layer_only: True면 이종 레이어 조합만 탐색 (동일 레이어 내 조합 제외)
215
+
216
+ Returns:
217
+ 점수 내림차순 정렬된 조합 리스트
218
+ """
219
+ ideas = self.space.ideas
220
+ if not ideas:
221
+ logger.warning("가능성 공간에 아이디어가 없습니다.")
222
+ return []
223
+
224
+ # 대규모 공간: 레이어별 상위 아이디어만 선별
225
+ if len(list(combinations(range(len(ideas)), k))) > max_combos:
226
+ ideas = self._select_representative_ideas(ideas, per_layer=max(5, max_combos // 100))
227
+ logger.info(f"대규모 공간 → 대표 아이디어 {len(ideas)}개로 축소")
228
+
229
+ scored = []
230
+ combo_count = 0
231
+ for combo_tuple in combinations(ideas, k):
232
+ if combo_count >= max_combos:
233
+ break
234
+ combo_items = list(combo_tuple)
235
+
236
+ # 이종 레이어 필터
237
+ if cross_layer_only:
238
+ layers = set(item.layer for item in combo_items)
239
+ if len(layers) < 2:
240
+ continue
241
+
242
+ score = self._score_combination(combo_items)
243
+ fusion_bonus = self.fusion_matrix.compute_bonus(combo_items)
244
+
245
+ combo = Combination(
246
+ items=combo_items,
247
+ score=score,
248
+ fusion_bonus=fusion_bonus,
249
+ )
250
+ scored.append(combo)
251
+ combo_count += 1
252
+
253
+ # 점수 내림차순 정렬
254
+ scored.sort(key=lambda c: c.score + c.fusion_bonus, reverse=True)
255
+ logger.info(f"✅ 전수 탐색 완료: {combo_count}개 조합 스코어링")
256
+ return scored
257
+
258
+ def _score_combination(self, items: List[IdeaVector]) -> float:
259
+ """조합의 기본 점수 = 관련성 평균 + 공간적 거리 보너스"""
260
+ relevance_avg = np.mean([item.relevance_score for item in items])
261
+
262
+ # 공간적 거리: 멀수록 (이종 융합일수록) 보너스
263
+ if len(items) >= 2:
264
+ distances = [self.space.distance(a, b) for a, b in combinations(items, 2)]
265
+ distance_bonus = np.mean(distances) * 0.3 # 거리의 30%를 보너스로
266
+ else:
267
+ distance_bonus = 0.0
268
+
269
+ return float(relevance_avg + distance_bonus)
270
+
271
+ def _select_representative_ideas(self, ideas: List[IdeaVector], per_layer: int = 10) -> List[IdeaVector]:
272
+ """각 레이어에서 관련성 상위 아이디어만 선별"""
273
+ by_layer = defaultdict(list)
274
+ for idea in ideas:
275
+ by_layer[idea.layer].append(idea)
276
+ selected = []
277
+ for layer in LAYER_ORDER:
278
+ layer_ideas = sorted(by_layer.get(layer, []), key=lambda x: x.relevance_score, reverse=True)
279
+ selected.extend(layer_ideas[:per_layer])
280
+ return selected
281
+
282
+
283
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
284
+ # 4. [독립항 (b)] 볼츠만 분포 기반 확률적 샘플링
285
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
286
+
287
+ class BoltzmannSampler:
288
+ """볼츠만 분포 P(x) = exp(-E(x)/kT) / Z 기반 확률적 샘플링
289
+
290
+ 온도 파라미터 T로 탐색 다양성을 동적 조절:
291
+ - 높은 T (>2.0): 탐색(exploration) 모드 — 저점수 아이디어도 높은 확률로 선택
292
+ - 중간 T (~1.0): 균형 모드
293
+ - 낮은 T (<0.5): 착취(exploitation) 모드 — 고점수 아이디어에 집중
294
+ """
295
+
296
+ def __init__(self, temperature: float = DEFAULT_TEMPERATURE):
297
+ self.temperature = temperature
298
+ self._validate_temperature()
299
+
300
+ def _validate_temperature(self):
301
+ if self.temperature <= 0:
302
+ raise ValueError(f"온도 T는 양수여야 합니다 (현재: {self.temperature})")
303
+
304
+ def set_temperature(self, temperature: float):
305
+ """온도 파라미터 동적 조절"""
306
+ self.temperature = temperature
307
+ self._validate_temperature()
308
+ logger.info(f"🌡️ 볼츠만 온도 변경: T={self.temperature:.2f}")
309
+
310
+ def compute_probabilities(self, combinations: List[Combination]) -> np.ndarray:
311
+ """각 조합의 볼츠만 확률 P(x) 계산
312
+
313
+ P(x) = exp(-E(x) / T) / Z
314
+ 여기서 E(x) = -score (높은 점수 = 낮은 에너지)
315
+ Z = Σ exp(-E(x) / T) (분배함수)
316
+ """
317
+ if not combinations:
318
+ return np.array([])
319
+
320
+ scores = np.array([c.score + c.fusion_bonus for c in combinations])
321
+ energies = -scores # 높은 점수 = 낮은 에너지
322
+
323
+ # 로그-확률 계산 (수치 안정성)
324
+ log_probs = -energies / self.temperature
325
+ log_probs -= np.max(log_probs) # 오버플로 방지
326
+ probs = np.exp(log_probs)
327
+
328
+ # 분배함수 Z로 정규화
329
+ Z = probs.sum()
330
+ if Z > 0:
331
+ probs /= Z
332
+ else:
333
+ probs = np.ones(len(probs)) / len(probs)
334
+
335
+ return probs
336
+
337
+ def sample(self, combinations: List[Combination], n_samples: int = DEFAULT_SAMPLE_SIZE,
338
+ replace: bool = False) -> List[Combination]:
339
+ """볼츠만 분포에 따른 확률적 샘플링
340
+
341
+ Args:
342
+ combinations: 전수 탐색 결과
343
+ n_samples: 샘플링할 조합 수
344
+ replace: True면 복원 추출 (동일 조합 중복 선택 가능)
345
+
346
+ Returns:
347
+ 볼츠만 확률에 따라 선택된 조합 리스트
348
+ """
349
+ if not combinations:
350
+ return []
351
+
352
+ n_samples = min(n_samples, len(combinations)) if not replace else n_samples
353
+ probs = self.compute_probabilities(combinations)
354
+
355
+ indices = np.random.choice(
356
+ len(combinations), size=n_samples, replace=replace, p=probs
357
+ )
358
+
359
+ sampled = [combinations[i] for i in indices]
360
+ logger.info(
361
+ f"✅ 볼츠만 샘플링 완료: T={self.temperature:.2f}, "
362
+ f"{len(combinations)}개 중 {n_samples}개 선택"
363
+ )
364
+ return sampled
365
+
366
+ def adaptive_sample(self, combinations: List[Combination],
367
+ n_samples: int = DEFAULT_SAMPLE_SIZE,
368
+ explore_ratio: float = 0.3) -> List[Combination]:
369
+ """적응적 샘플링: 착취(저온) + 탐색(고온) 혼합
370
+
371
+ 전체 샘플의 (1-explore_ratio)는 낮은 온도로, explore_ratio는 높은 온도로 샘플링.
372
+ 이를 통해 고점수 조합을 확보하면서도 의외의 조합을 발견할 기회를 보장.
373
+ """
374
+ n_exploit = int(n_samples * (1 - explore_ratio))
375
+ n_explore = n_samples - n_exploit
376
+
377
+ # 착취 (낮은 T)
378
+ self.set_temperature(self.temperature * 0.3)
379
+ exploited = self.sample(combinations, n_exploit)
380
+
381
+ # 탐색 (높은 T)
382
+ self.set_temperature(self.temperature * 10.0) # 원래의 ~3배
383
+ explored = self.sample(combinations, n_explore)
384
+
385
+ # 온도 복원
386
+ self.set_temperature(DEFAULT_TEMPERATURE)
387
+
388
+ result = exploited + explored
389
+ logger.info(f"✅ 적응적 샘플링: 착취 {n_exploit}개 + 탐색 {n_explore}개")
390
+ return result
391
+
392
+
393
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
394
+ # 5. [독립항 (c)] 지식그래프 연결 탐색
395
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
396
+
397
+ class EmergenceKnowledgeGraph:
398
+ """기술 항목 간 지식그래프 구축 및 미발견 경로 탐색
399
+
400
+ 노드: 카테고리, 기술 항목
401
+ 엣지: contains(소속), related(관련성), cross_layer(교차 레이어)
402
+ 미발견 경로: 직접 연결이 없는 노드 간 간접 경로 → 창발적 조합 후보
403
+ """
404
+
405
+ def __init__(self):
406
+ # 인접 리스트 기반 그래프 (networkx 의존 제거)
407
+ self.nodes: Dict[str, Dict[str, Any]] = {}
408
+ self.edges: Dict[str, List[Tuple[str, str, float]]] = defaultdict(list)
409
+ self._adjacency: Dict[str, Set[str]] = defaultdict(set)
410
+
411
+ def add_node(self, node_id: str, **attrs):
412
+ self.nodes[node_id] = attrs
413
+
414
+ def add_edge(self, source: str, target: str, relation: str = "related", weight: float = 1.0):
415
+ self.edges[source].append((target, relation, weight))
416
+ self._adjacency[source].add(target)
417
+ self._adjacency[target].add(source) # 양방향
418
+
419
+ def build_from_space(self, space: PossibilitySpace, cross_layer_bonus: Dict = None):
420
+ """가능성 공간의 아이디어들로 지식그래프 구축"""
421
+ # 1. 레이어 → 노드
422
+ for layer in space.dimensions:
423
+ self.add_node(f"LAYER:{layer}", type="layer", name=layer)
424
+
425
+ # 2. 카테고리 → 노드 + 레이어 엣지
426
+ categories_seen = set()
427
+ for idea in space.ideas:
428
+ cat_id = f"CAT:{idea.category}"
429
+ if cat_id not in categories_seen:
430
+ self.add_node(cat_id, type="category", name=idea.category, layer=idea.layer)
431
+ self.add_edge(f"LAYER:{idea.layer}", cat_id, "contains", 1.0)
432
+ categories_seen.add(cat_id)
433
+
434
+ # 3. 항목 → 노드 + 카테고리 엣지
435
+ item_id = f"ITEM:{idea.id}"
436
+ self.add_node(item_id, type="item", name=idea.item_name,
437
+ category=idea.category, layer=idea.layer)
438
+ self.add_edge(cat_id, item_id, "contains", idea.relevance_score)
439
+
440
+ # 4. 교차 레이어 엣지 (이종 카테고리 간 연결)
441
+ if cross_layer_bonus:
442
+ for (layer_a, layer_b), bonus in cross_layer_bonus.items():
443
+ self.add_edge(f"LAYER:{layer_a}", f"LAYER:{layer_b}", "cross_layer", bonus)
444
+
445
+ # 5. 가능성 공간 내 근접 아이디어 간 연결
446
+ self._connect_nearby_ideas(space, similarity_threshold=0.3)
447
+
448
+ logger.info(
449
+ f"✅ 지식그래프 구축: {len(self.nodes)}개 노드, "
450
+ f"{sum(len(v) for v in self.edges.values())}개 엣지"
451
+ )
452
+
453
+ def _connect_nearby_ideas(self, space: PossibilitySpace, similarity_threshold: float = 0.3):
454
+ """가능성 공간에서 유사한 아이디어 간 엣지 추가"""
455
+ items = [idea for idea in space.ideas]
456
+ for i, a in enumerate(items):
457
+ for j, b in enumerate(items):
458
+ if j <= i:
459
+ continue
460
+ sim = space.cosine_similarity(a, b)
461
+ if sim > similarity_threshold:
462
+ self.add_edge(f"ITEM:{a.id}", f"ITEM:{b.id}", "similar", sim)
463
+
464
+ def discover_hidden_paths(self, max_hops: int = 3, max_paths: int = 500) -> List[Dict]:
465
+ """기존 노드 간 미발견 경로 탐색 (BFS 기반)
466
+
467
+ 직접 연결(엣지)이 없지만 간접 경로가 존재하는 아이템 쌍을 발견.
468
+ 이러한 간접 경로는 창발적 아이디어 융합의 후보가 됨.
469
+
470
+ Returns:
471
+ [{"source": str, "target": str, "path": List[str], "novelty_score": float}, ...]
472
+ """
473
+ item_nodes = [nid for nid, attrs in self.nodes.items() if attrs.get("type") == "item"]
474
+ hidden_paths = []
475
+
476
+ for source in item_nodes:
477
+ direct_neighbors = self._adjacency.get(source, set())
478
+ # BFS로 max_hops 이내 도달 가능한 노드 탐색
479
+ reachable = self._bfs(source, max_hops)
480
+
481
+ for target, path in reachable.items():
482
+ if target == source:
483
+ continue
484
+ if self.nodes.get(target, {}).get("type") != "item":
485
+ continue
486
+ # 직접 연결이 없는 노드만 (미발견 경로)
487
+ if target not in direct_neighbors:
488
+ # 신규도 = 1 / 경로 길이 (짧은 간접 경로가 더 의미 있음)
489
+ novelty = 1.0 / len(path)
490
+ # 이종 레이어 보너스
491
+ source_layer = self.nodes[source].get("layer", "")
492
+ target_layer = self.nodes[target].get("layer", "")
493
+ if source_layer != target_layer:
494
+ novelty *= 1.5 # 이종 레이어 간 미발견 경로 우대
495
+
496
+ hidden_paths.append({
497
+ "source": source,
498
+ "target": target,
499
+ "source_name": self.nodes[source].get("name", source),
500
+ "target_name": self.nodes[target].get("name", target),
501
+ "source_layer": source_layer,
502
+ "target_layer": target_layer,
503
+ "path": path,
504
+ "hops": len(path) - 1,
505
+ "novelty_score": novelty
506
+ })
507
+
508
+ if len(hidden_paths) >= max_paths:
509
+ break
510
+ if len(hidden_paths) >= max_paths:
511
+ break
512
+
513
+ hidden_paths.sort(key=lambda x: x["novelty_score"], reverse=True)
514
+ logger.info(f"✅ 미발견 경로 탐색: {len(hidden_paths)}개 발견")
515
+ return hidden_paths
516
+
517
+ def _bfs(self, start: str, max_depth: int) -> Dict[str, List[str]]:
518
+ """BFS로 시작 노드에서 max_depth 이내 도달 가능한 모든 노드와 경로 반환"""
519
+ visited = {start: [start]}
520
+ queue = [(start, [start], 0)]
521
+ while queue:
522
+ current, path, depth = queue.pop(0)
523
+ if depth >= max_depth:
524
+ continue
525
+ for neighbor in self._adjacency.get(current, set()):
526
+ if neighbor not in visited:
527
+ new_path = path + [neighbor]
528
+ visited[neighbor] = new_path
529
+ queue.append((neighbor, new_path, depth + 1))
530
+ return visited
531
+
532
+ def enrich_combinations(self, combinations: List[Combination]) -> List[Combination]:
533
+ """조합에 지식그래프 경로 정보를 추가"""
534
+ for combo in combinations:
535
+ item_ids = [f"ITEM:{item.id}" for item in combo.items]
536
+ paths_found = []
537
+ for a_id, b_id in zip(item_ids, item_ids[1:]):
538
+ reachable = self._bfs(a_id, 3)
539
+ if b_id in reachable:
540
+ paths_found.append(reachable[b_id])
541
+ combo.graph_paths = paths_found
542
+ if paths_found:
543
+ combo.novelty_score = np.mean([1.0 / len(p) for p in paths_found])
544
+ return combinations
545
+
546
+
547
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
548
+ # 6. [독립항 (d)] 교차 융합 보너스 매트릭스
549
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
550
+
551
+ class FusionBonusMatrix:
552
+ """이종 계층 간 거리에 비례한 교차 융합 보너스 매트릭스
553
+
554
+ 수학적 보장: bonus[i][j] = |index_i - index_j| / (N-1) * max_bonus
555
+ → 먼 레이어 간 조합일수록 높은 보너스 (진정한 이종 융합 우대)
556
+ """
557
+
558
+ def __init__(self, layers: List[str] = None, max_bonus: float = 0.15):
559
+ self.layers = layers or LAYER_ORDER
560
+ self.n_layers = len(self.layers)
561
+ self.max_bonus = max_bonus
562
+ self._layer_index = {l: i for i, l in enumerate(self.layers)}
563
+ self.matrix = self._build_matrix()
564
+
565
+ def _build_matrix(self) -> np.ndarray:
566
+ """거리 비례 융합 보너스 매트릭스 구축
567
+
568
+ matrix[i][j] = |i - j| / (N-1) * max_bonus
569
+ 대각선(i==j) = 0 (동일 레이어 보너스 없음)
570
+ """
571
+ n = self.n_layers
572
+ matrix = np.zeros((n, n))
573
+ for i in range(n):
574
+ for j in range(n):
575
+ if i != j:
576
+ distance = abs(i - j) / (n - 1) # 정규화 거리 [0, 1]
577
+ matrix[i][j] = distance * self.max_bonus
578
+ return matrix
579
+
580
+ def get_bonus(self, layer_a: str, layer_b: str) -> float:
581
+ """두 레이어 간 융합 보너스 조회"""
582
+ idx_a = self._layer_index.get(layer_a, 0)
583
+ idx_b = self._layer_index.get(layer_b, 0)
584
+ return float(self.matrix[idx_a][idx_b])
585
+
586
+ def compute_bonus(self, items: List[IdeaVector]) -> float:
587
+ """조합 내 모든 아이템 쌍의 융합 보너스 합산"""
588
+ total_bonus = 0.0
589
+ for a, b in combinations(items, 2):
590
+ total_bonus += self.get_bonus(a.layer, b.layer)
591
+ return total_bonus
592
+
593
+ def to_dict(self) -> Dict:
594
+ """매트릭스를 딕셔너리로 변환 (직렬화용)"""
595
+ result = {}
596
+ for i, layer_a in enumerate(self.layers):
597
+ for j, layer_b in enumerate(self.layers):
598
+ if i < j:
599
+ result[(layer_a, layer_b)] = float(self.matrix[i][j])
600
+ return result
601
+
602
+ def __repr__(self):
603
+ header = " " + " ".join(f"{l[:5]:>6}" for l in self.layers)
604
+ rows = []
605
+ for i, layer in enumerate(self.layers):
606
+ row_vals = " ".join(f"{self.matrix[i][j]:6.3f}" for j in range(self.n_layers))
607
+ rows.append(f"{layer[:5]:>5} {row_vals}")
608
+ return header + "\n" + "\n".join(rows)
609
+
610
+
611
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
612
+ # 7. [독립항 (e)] 창발성 임계점 (Emergence Threshold) 판정
613
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
614
+
615
+ class EmergenceThresholdJudge:
616
+ """조합 복잡도가 창발성 임계점을 초과하는지 판정
617
+
618
+ 복잡도 = f(참여 레이어 수, 교차 융합 보너스, 지식그래프 경로 신규도, 공간적 거리)
619
+ 임계점 초과 시 해당 조합을 "창발 발현(Emergent)" 으로 판정.
620
+ """
621
+
622
+ def __init__(self, threshold: float = MIN_EMERGENCE_THRESHOLD,
623
+ fusion_matrix: FusionBonusMatrix = None):
624
+ self.threshold = threshold
625
+ self.fusion_matrix = fusion_matrix or FusionBonusMatrix()
626
+
627
+ def calculate_complexity(self, combo: Combination, space: PossibilitySpace = None) -> float:
628
+ """조합의 복잡도 계산
629
+
630
+ complexity = α * layer_diversity + β * fusion_bonus + γ * spatial_distance + δ * novelty
631
+
632
+ α=0.30: 참여 레이어 다양성 (N_layers / N_total_layers)
633
+ β=0.25: 교차 융합 보너스 정규화
634
+ γ=0.25: 공간적 거리 (멀수록 이종 융합)
635
+ δ=0.20: 지식그래프 경로 신규도
636
+ """
637
+ # (1) 레이어 다양성
638
+ n_layers = combo.n_layers
639
+ layer_diversity = n_layers / len(LAYER_ORDER)
640
+
641
+ # (2) 교차 융합 보너스 (정규화)
642
+ max_possible_bonus = self.fusion_matrix.max_bonus * (n_layers * (n_layers - 1) / 2)
643
+ fusion_normalized = combo.fusion_bonus / max(max_possible_bonus, 0.01)
644
+
645
+ # (3) 공간적 거리 (평균)
646
+ if space and len(combo.items) >= 2:
647
+ distances = [space.distance(a, b) for a, b in combinations(combo.items, 2)]
648
+ spatial_distance = np.mean(distances)
649
+ else:
650
+ spatial_distance = 0.5
651
+
652
+ # (4) 지식그래프 경로 신규도
653
+ novelty = combo.novelty_score if combo.novelty_score > 0 else 0.3
654
+
655
+ # 가중 합산
656
+ complexity = (
657
+ 0.30 * layer_diversity +
658
+ 0.25 * min(fusion_normalized, 1.0) +
659
+ 0.25 * min(spatial_distance, 1.0) +
660
+ 0.20 * min(novelty, 1.0)
661
+ )
662
+
663
+ return float(complexity)
664
+
665
+ def judge(self, combo: Combination, space: PossibilitySpace = None) -> EmergenceResult:
666
+ """창발성 임계점 초과 여부 판정"""
667
+ complexity = self.calculate_complexity(combo, space)
668
+ is_emergent = complexity > self.threshold
669
+
670
+ if complexity > self.threshold * 1.5:
671
+ level = "HIGH"
672
+ elif is_emergent:
673
+ level = "MODERATE"
674
+ else:
675
+ level = "LOW"
676
+
677
+ confidence = min(complexity / self.threshold, 2.0) / 2.0
678
+
679
+ result = EmergenceResult(
680
+ complexity=complexity,
681
+ threshold=self.threshold,
682
+ is_emergent=is_emergent,
683
+ emergence_level=level,
684
+ confidence=confidence,
685
+ contributing_factors={
686
+ "layer_diversity": combo.n_layers / len(LAYER_ORDER),
687
+ "fusion_bonus": combo.fusion_bonus,
688
+ "novelty_score": combo.novelty_score,
689
+ "n_layers": combo.n_layers,
690
+ }
691
+ )
692
+
693
+ # 조합에도 결과 반영
694
+ combo.complexity = complexity
695
+ combo.is_emergent = is_emergent
696
+ combo.emergence_level = level
697
+
698
+ return result
699
+
700
+ def judge_batch(self, combinations: List[Combination],
701
+ space: PossibilitySpace = None) -> List[Tuple[Combination, EmergenceResult]]:
702
+ """대량 판정"""
703
+ results = []
704
+ emergent_count = 0
705
+ for combo in combinations:
706
+ result = self.judge(combo, space)
707
+ results.append((combo, result))
708
+ if result.is_emergent:
709
+ emergent_count += 1
710
+
711
+ logger.info(
712
+ f"✅ 창발성 판정 완료: {len(combinations)}개 중 {emergent_count}개 창발 발현 "
713
+ f"(임계점: {self.threshold:.2f})"
714
+ )
715
+ return results
716
+
717
+
718
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
719
+ # 8. [종속항 3] 엔트로피 기반 다양성 보장
720
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
721
+
722
+ class EntropyDiversityGuard:
723
+ """탐색 경로의 다양성을 엔트로피로 측정하고 최소 수준을 보장
724
+
725
+ Shannon 엔트로피 H = -Σ p_i * log2(p_i)
726
+ 최대 엔트로피 = log2(N_layers) ≈ 2.58 (6레이어)
727
+ 최소 엔트로피 기본값 = 1.5 비트 (적어도 3개 레이어에 분산)
728
+ """
729
+
730
+ def __init__(self, min_entropy: float = MIN_ENTROPY, layers: List[str] = None):
731
+ self.min_entropy = min_entropy
732
+ self.layers = layers or LAYER_ORDER
733
+ self.max_entropy = math.log2(len(self.layers))
734
+
735
+ def measure_entropy(self, combinations: List[Combination]) -> float:
736
+ """현재 조합 집합의 레이어 분포 엔트로피 측정"""
737
+ if not combinations:
738
+ return 0.0
739
+
740
+ layer_counts = Counter()
741
+ for combo in combinations:
742
+ for item in combo.items:
743
+ layer_counts[item.layer] += 1
744
+
745
+ total = sum(layer_counts.values())
746
+ if total == 0:
747
+ return 0.0
748
+
749
+ probs = [layer_counts.get(l, 0) / total for l in self.layers]
750
+ # Shannon 엔트로피 (base-2, 비트 단위)
751
+ entropy_val = 0.0
752
+ for p in probs:
753
+ if p > 0:
754
+ entropy_val -= p * math.log2(p)
755
+
756
+ return entropy_val
757
+
758
+ def is_diverse_enough(self, combinations: List[Combination]) -> bool:
759
+ return self.measure_entropy(combinations) >= self.min_entropy
760
+
761
+ def ensure_diversity(self, combinations: List[Combination],
762
+ all_combinations: List[Combination]) -> Tuple[List[Combination], float]:
763
+ """최소 엔트로피 미달 시 저빈도 레이어 아이디어를 추가 교체
764
+
765
+ Returns:
766
+ (다양성 보장된 조합 리스트, 최종 엔트로피)
767
+ """
768
+ current = list(combinations)
769
+ current_entropy = self.measure_entropy(current)
770
+
771
+ if current_entropy >= self.min_entropy:
772
+ return current, current_entropy
773
+
774
+ logger.info(
775
+ f"⚠️ 엔트로피 부족: {current_entropy:.2f} < {self.min_entropy:.2f}, 다양성 보강 시작"
776
+ )
777
+
778
+ # 저빈도 레이어 식별
779
+ layer_counts = Counter()
780
+ for combo in current:
781
+ for item in combo.items:
782
+ layer_counts[item.layer] += 1
783
+ underrepresented = [l for l in self.layers if layer_counts.get(l, 0) < 2]
784
+
785
+ # 저빈도 레이어의 조합을 all_combinations에서 추가
786
+ additions = []
787
+ for combo in all_combinations:
788
+ if combo in current:
789
+ continue
790
+ if any(item.layer in underrepresented for item in combo.items):
791
+ additions.append(combo)
792
+ if len(additions) >= len(underrepresented) * 3:
793
+ break
794
+
795
+ # 현재 리스트의 가장 낮은 점수 조합을 교체
796
+ current.sort(key=lambda c: c.score + c.fusion_bonus)
797
+ n_replace = min(len(additions), len(current) // 4) # 최대 25% 교체
798
+ if n_replace > 0:
799
+ current = current[n_replace:] + additions[:n_replace]
800
+
801
+ final_entropy = self.measure_entropy(current)
802
+ logger.info(f"✅ 다양성 보강 완료: 엔트로피 {current_entropy:.2f} → {final_entropy:.2f}")
803
+ return current, final_entropy
804
+
805
+ def get_diversity_report(self, combinations: List[Combination]) -> Dict:
806
+ """다양성 보고서 생성"""
807
+ entropy_val = self.measure_entropy(combinations)
808
+ layer_counts = Counter()
809
+ for combo in combinations:
810
+ for item in combo.items:
811
+ layer_counts[item.layer] += 1
812
+
813
+ return {
814
+ "entropy": entropy_val,
815
+ "max_entropy": self.max_entropy,
816
+ "min_entropy": self.min_entropy,
817
+ "diversity_ratio": entropy_val / self.max_entropy if self.max_entropy > 0 else 0,
818
+ "is_diverse": entropy_val >= self.min_entropy,
819
+ "layer_distribution": dict(layer_counts),
820
+ "underrepresented_layers": [l for l in self.layers if layer_counts.get(l, 0) < 2],
821
+ }
822
+
823
+
824
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
825
+ # 9. 통합 엔진: MAIAEmergenceEngine
826
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
827
+
828
+ class MAIAEmergenceEngine:
829
+ """MAIA 창발성 발현 엔진 — 특허 제7호 독립항 (a)~(e) 통합 실행
830
+
831
+ 파이프라인:
832
+ 1. 가능성 공간 구축 (N≥5 차원)
833
+ 2. (a) 브루트포스 전수 탐색 + 스코어링
834
+ 3. (b) 볼츠만 분포 확률적 샘플링
835
+ 4. (c) 지식그래프 미발견 경로 탐색 + 조합 보강
836
+ 5. (d) 교차 융합 보너스 매트릭스 적용
837
+ 6. (e) 창발성 임계점 판정
838
+ 7. [종속항3] 엔트로피 기반 다양성 보장
839
+ """
840
+
841
+ def __init__(self,
842
+ temperature: float = DEFAULT_TEMPERATURE,
843
+ emergence_threshold: float = MIN_EMERGENCE_THRESHOLD,
844
+ min_entropy: float = MIN_ENTROPY,
845
+ max_bonus: float = 0.15):
846
+ # 모듈 초기화
847
+ self.space = PossibilitySpace(LAYER_ORDER)
848
+ self.fusion_matrix = FusionBonusMatrix(LAYER_ORDER, max_bonus)
849
+ self.explorer = BruteForceExplorer(self.space, self.fusion_matrix)
850
+ self.sampler = BoltzmannSampler(temperature)
851
+ self.knowledge_graph = EmergenceKnowledgeGraph()
852
+ self.judge = EmergenceThresholdJudge(emergence_threshold, self.fusion_matrix)
853
+ self.diversity_guard = EntropyDiversityGuard(min_entropy, LAYER_ORDER)
854
+
855
+ # 실행 결과 저장
856
+ self.results: Dict[str, Any] = {}
857
+ self._initialized = False
858
+
859
+ logger.info("🚀 MAIA 창발성 발현 엔진 초기화 완료")
860
+
861
+ def initialize(self, categories, relevance_scores: Dict,
862
+ cross_layer_bonus: Dict = None):
863
+ """엔진 초기화: 가능성 공간 구축 + 지식그래프 빌드"""
864
+ # 1. 가능성 공간에 아이디어 배치
865
+ n_placed = self.space.place_from_categories(categories, relevance_scores)
866
+
867
+ # 2. 지식그래프 구축
868
+ self.knowledge_graph.build_from_space(self.space, cross_layer_bonus)
869
+
870
+ self._initialized = True
871
+ self.results["initialization"] = {
872
+ "n_ideas": n_placed,
873
+ "n_dimensions": self.space.n_dims,
874
+ "n_graph_nodes": len(self.knowledge_graph.nodes),
875
+ }
876
+ return n_placed
877
+
878
+ def run(self, n_samples: int = DEFAULT_SAMPLE_SIZE,
879
+ k_way: int = 2,
880
+ max_brute_force: int = MAX_BRUTE_FORCE_COMBOS,
881
+ explore_ratio: float = 0.3) -> List[Combination]:
882
+ """전체 파이프라인 실행
883
+
884
+ Args:
885
+ n_samples: 최종 출력 조합 수
886
+ k_way: 조합 크기 (2-way, 3-way 등)
887
+ max_brute_force: 전수 탐색 최대 조합 수
888
+ explore_ratio: 볼츠만 탐색 비율
889
+
890
+ Returns:
891
+ 창발성 판정 완료된 최종 조합 리스트 (점수 내림차순)
892
+ """
893
+ assert self._initialized, "먼저 initialize()를 호출하세요."
894
+ start_time = time.time()
895
+
896
+ # Step (a): 브루트포스 전수 탐색
897
+ logger.info("━━ Step (a): 브루트포스 전수 탐색 ━━")
898
+ all_combinations = self.explorer.enumerate_all_combinations(
899
+ k=k_way, max_combos=max_brute_force, cross_layer_only=True
900
+ )
901
+ self.results["brute_force"] = {"total_combinations": len(all_combinations)}
902
+
903
+ if not all_combinations:
904
+ logger.warning("전수 탐색 결과 없음")
905
+ return []
906
+
907
+ # Step (d): 교차 융합 보너스 적용 (스코어에 이미 반영됨)
908
+ logger.info("━━ Step (d): 교차 융합 보너스 매트릭스 적용 ━━")
909
+ # (이미 enumerate_all_combinations 내부에서 fusion_bonus 계산됨)
910
+
911
+ # Step (b): 볼츠만 분포 확률적 샘플링
912
+ logger.info("━━ Step (b): 볼츠만 분포 확률적 샘플링 ━━")
913
+ sampled = self.sampler.adaptive_sample(
914
+ all_combinations, n_samples=n_samples * 2, explore_ratio=explore_ratio
915
+ )
916
+ self.results["boltzmann_sampling"] = {
917
+ "temperature": self.sampler.temperature,
918
+ "input_count": len(all_combinations),
919
+ "sampled_count": len(sampled),
920
+ }
921
+
922
+ # Step (c): 지식그래프 미발견 경로로 조합 보강
923
+ logger.info("━━ Step (c): 지식그래프 미발견 경로 탐색 ━━")
924
+ hidden_paths = self.knowledge_graph.discover_hidden_paths(max_hops=3, max_paths=200)
925
+ sampled = self.knowledge_graph.enrich_combinations(sampled)
926
+ self.results["knowledge_graph"] = {"hidden_paths_found": len(hidden_paths)}
927
+
928
+ # [종속항3] 엔트로피 기반 다양성 보장
929
+ logger.info("━━ 엔트로피 기반 다양성 보장 ━━")
930
+ sampled, final_entropy = self.diversity_guard.ensure_diversity(sampled, all_combinations)
931
+ self.results["entropy"] = self.diversity_guard.get_diversity_report(sampled)
932
+
933
+ # Step (e): 창발성 임계점 판정
934
+ logger.info("━━ Step (e): 창발성 임계점 판정 ━━")
935
+ judged = self.judge.judge_batch(sampled, self.space)
936
+
937
+ # 창발 발현 조합만 필터 + 점수순 정렬
938
+ emergent_combos = [
939
+ combo for combo, result in judged if result.is_emergent
940
+ ]
941
+ emergent_combos.sort(
942
+ key=lambda c: c.complexity * (c.score + c.fusion_bonus), reverse=True
943
+ )
944
+
945
+ # 최종 n_samples개 선택
946
+ final = emergent_combos[:n_samples]
947
+
948
+ elapsed = time.time() - start_time
949
+ self.results["summary"] = {
950
+ "total_time_sec": round(elapsed, 2),
951
+ "input_ideas": self.space.total_ideas,
952
+ "brute_force_combos": len(all_combinations),
953
+ "boltzmann_sampled": len(sampled),
954
+ "emergent_combos": len(emergent_combos),
955
+ "final_output": len(final),
956
+ "emergence_rate": f"{len(emergent_combos) / max(len(sampled), 1) * 100:.1f}%",
957
+ }
958
+
959
+ logger.info(
960
+ f"🎯 MAIA 창발성 엔진 완료: {self.space.total_ideas}개 아이디어 → "
961
+ f"{len(all_combinations)}개 조합 → {len(emergent_combos)}개 창발 → "
962
+ f"최종 {len(final)}개 (소요시간: {elapsed:.1f}초)"
963
+ )
964
+
965
+ return final
966
+
967
+ def get_results_summary(self) -> Dict:
968
+ """실행 결과 요약"""
969
+ return self.results
970
+
971
+ def format_for_llm_prompt(self, combinations: List[Combination], top_n: int = 30) -> str:
972
+ """LLM 프롬프트용 창발적 조합 텍스트 포맷팅
973
+
974
+ 기존 app.py의 researcher_comprehensive_chunked()에 전달할 창발 후보 텍스트
975
+ """
976
+ lines = [f"■■■ MAIA 창발성 엔진 출력 (상위 {min(top_n, len(combinations))}개) ■■■\n"]
977
+ for i, combo in enumerate(combinations[:top_n], 1):
978
+ layers = ", ".join(sorted(combo.layers_involved))
979
+ lines.append(f"[창발 #{i:02d}] 복잡도={combo.complexity:.3f} | 레이어: {layers}")
980
+ lines.append(f" 조합: {combo.description}")
981
+ lines.append(f" 융합 보너스: {combo.fusion_bonus:.3f} | 창발 수준: {combo.emergence_level}")
982
+ if combo.graph_paths:
983
+ lines.append(f" 지식그래프 경로: {len(combo.graph_paths)}개 미발견 경로")
984
+ lines.append("")
985
+ return "\n".join(lines)
986
+
987
+
988
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
989
+ # 10. 편의 함수 (기존 코드 연동용)
990
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
991
+
992
+ def run_emergence_engine(categories, relevance_scores: Dict,
993
+ cross_layer_bonus: Dict = None,
994
+ temperature: float = 1.0,
995
+ threshold: float = 0.65,
996
+ n_output: int = 50) -> Tuple[List[Combination], Dict]:
997
+ """원스텝 실행 함수 (기존 app.py에서 호출용)
998
+
999
+ Usage:
1000
+ from emergence_engine import run_emergence_engine
1001
+ combos, report = run_emergence_engine(categories, relevance_scores,
1002
+ CROSS_LAYER_EMERGENCE_BONUS)
1003
+ prompt_text = engine.format_for_llm_prompt(combos)
1004
+ """
1005
+ engine = MAIAEmergenceEngine(
1006
+ temperature=temperature,
1007
+ emergence_threshold=threshold,
1008
+ )
1009
+ engine.initialize(categories, relevance_scores, cross_layer_bonus)
1010
+ results = engine.run(n_samples=n_output)
1011
+ return results, engine.get_results_summary()
1012
+
1013
+
1014
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1015
+ # 11. 셀프테스트
1016
+ # ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
1017
+
1018
+ def _self_test():
1019
+ """엔진 셀프테스트 (categories.py 없이 독립 실행)"""
1020
+ logging.basicConfig(level=logging.INFO, format="%(asctime)s [%(levelname)s] %(message)s")
1021
+
1022
+ # 테스트용 더미 데이터
1023
+ from dataclasses import dataclass as dc
1024
+
1025
+ @dc
1026
+ class DummyCat:
1027
+ name_ko: str; name_en: str; items: list; layer: str; layer_description: str = ""
1028
+
1029
+ test_categories = [
1030
+ DummyCat("센서 기능", "Sensor", ["압력센서", "온도��서", "가속도센서", "라이다", "초음파센서"], "INPUT"),
1031
+ DummyCat("AI 및 ML", "AI/ML", ["트랜스포머", "RAG", "연합학습", "강화학습", "지식그래프"], "TRANSFORMATION"),
1032
+ DummyCat("시스템 제어", "Control", ["PID제어", "퍼지제어", "강건제어", "적응제어"], "CONTROL"),
1033
+ DummyCat("제조 방식", "Fabrication", ["3D프린팅", "레이저가공", "사출성형", "CNC가공"], "FABRICATION"),
1034
+ DummyCat("환경 상호작용", "Environment", ["대기정화", "수질정화", "탄소포집", "재활용"], "CONTEXT"),
1035
+ DummyCat("에너지 관리", "Energy", ["배터리", "태양전지", "연료전지", "에너지하베스팅", "무선충전"], "VALUE"),
1036
+ ]
1037
+
1038
+ test_scores = {}
1039
+ for cat in test_categories:
1040
+ items_scores = {item: 0.3 + 0.5 * (i / len(cat.items)) for i, item in enumerate(cat.items)}
1041
+ test_scores[cat.name_ko] = {
1042
+ "category_score": 0.6,
1043
+ "items": items_scores,
1044
+ "layer": cat.layer,
1045
+ }
1046
+
1047
+ print("=" * 60)
1048
+ print("MAIA 창발성 발현 엔진 셀프테스트")
1049
+ print("=" * 60)
1050
+
1051
+ engine = MAIAEmergenceEngine(temperature=1.0, emergence_threshold=0.55)
1052
+ n = engine.initialize(test_categories, test_scores)
1053
+ print(f"\n배치 완료: {n}개 아이디어")
1054
+
1055
+ results = engine.run(n_samples=20, k_way=2)
1056
+ print(f"\n최종 창발 조합: {len(results)}개")
1057
+
1058
+ for i, combo in enumerate(results[:5], 1):
1059
+ print(f"\n[#{i}] {combo.description}")
1060
+ print(f" 복잡도={combo.complexity:.3f} | 레이어={combo.n_layers}개 | "
1061
+ f"수준={combo.emergence_level} | 점수={combo.score:.3f}")
1062
+
1063
+ print("\n" + "=" * 60)
1064
+ summary = engine.get_results_summary()
1065
+ for key, val in summary.items():
1066
+ print(f" {key}: {val}")
1067
+
1068
+ # 융합 보너스 매트릭스 출력
1069
+ print("\n교차 융합 보너스 매트릭스:")
1070
+ print(engine.fusion_matrix)
1071
+
1072
+ # 다양성 보고서
1073
+ report = engine.diversity_guard.get_diversity_report(results)
1074
+ print(f"\n엔트로피: {report['entropy']:.2f} / {report['max_entropy']:.2f} "
1075
+ f"(다양성 {'✅' if report['is_diverse'] else '❌'})")
1076
+
1077
+ print("\n✅ 셀프테스트 완료")
1078
+
1079
+
1080
+ if __name__ == "__main__":
1081
+ _self_test()