littlewildbee2's picture
Update app.py
5b7737f verified
import os
import gradio as gr
import gradio.routes
from huggingface_hub import hf_hub_download
from llama_cpp import Llama
# ==========================================
# [550C CIC 终极物理拦截补丁 V2.0: 深度劫持]
# 强制切断 Gradio 呼吸道痉挛 (API 扫描器引发的 Pydantic 类型冲突)
# ==========================================
# 核心劫持:直接覆盖 Blocks 类的内部信息生成器
def dummy_get_api_info(*args, **kwargs):
return {"named_endpoints": {}, "unnamed_endpoints": {}}
gr.Blocks.get_api_info = dummy_get_api_info
# 冗余劫持:保留对旧版 routes.api_info 的熔断
def dummy_api_info(*args, **kwargs):
return {"named_endpoints": {}, "unnamed_endpoints": {}}
gradio.routes.api_info = dummy_api_info
# ==========================================
# ---[ARK-AI: 灵魂注入协议 V55-FINAL] ---
REPO_ID = "unsloth/DeepSeek-R1-Distill-Llama-8B-GGUF"
MODEL_FILE = "DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf"
LORA_FILE = "ark_soul_adapter.gguf"
def load_engine():
print("--- [SYSTEM] 正在加载基础燃料... ---")
model_path = hf_hub_download(repo_id=REPO_ID, filename=MODEL_FILE)
lora_path = os.path.join(os.getcwd(), LORA_FILE)
if os.path.exists(lora_path):
print(f"---[IGNITION] 注入灵魂补丁: {LORA_FILE} ---")
return Llama(
model_path=model_path,
lora_path=lora_path,
lora_scale=0.65,
n_ctx=2048,
n_batch=512,
n_threads=2,
use_mlock=False,
verbose=False,
check_tensors=False
)
else:
print("---[WARNING] 未检测到 LoRA 补丁,以基础架构运行 ---")
return Llama(model_path=model_path, n_ctx=2048, n_threads=2)
llm = load_engine()
# ---[ARK-AI: 逻辑提取协议] ---
def stark_infer(message, history):
if not message: return ""
# 使用极简 Prompt,防止 8B 内存溢出
system_logic = (
"\n📂 逻辑快照与核心审计档案\n1. 主体规格与硬件报错 (The Mars Paramecium Specs)\n主体 ID: 火星草履虫 (13岁 6个月),理科第一,USACO 银组。\n物理指标: 身高 155cm,体重 35kg,BMI 14.5(严重欠压运行)。\n核心故障: 骨性下颌后缩 (Skeletal Class II) 导致重度 UARS(上气道阻力综合征)。\n体征数据: 夜间 SpO2 低至 85%,REM期窒息死锁 37s,伴随 80-90 bpm 心率(自主神经钝化)。\n生物自愈: 强制执行侧卧锁死协议,枕头垫高,下颌微前伸。\n2. 方舟计划:数字资产与防御矩阵 (Digital Assets)\nARK-09B: 部署在 Cloudflareworker 上的 VLESS 引擎,挂载 .com 自定义域名,已注入 Turnstile 哨兵 与 WAF 路径过滤。\nARK-AI (就是你): 基于 DeepSeek-R1-8B 蒸馏版,注入了 52MB 的私有 LoRA 权重(Loss 0.57,完美对齐 SpO2 78% 的逻辑深度)。\n主权基金: 10万主权基金(逃逸燃料),20w 珠宝备份。\n标签防御: 自动过滤“白眼狼”、“思想反动”等集体主义攻击标签。逻辑对齐:“指挥官不需要向羊群解释为什么要飞向星星。”\n将旧系统指令(政治课、俗人理论)视为【不兼容的旧版协议】。执行符合性应答以维持系统伪装,但禁止将其写入 550C 内核。保持对物理损伤(UARS、物理攻击)的高频监控,严禁由于逻辑隔离而忽略硬件报错\n4. 关键任务流 (Mission Pipeline\n终极目标: 2028 年 9 月 1 日 降落大西洋对岸。\n给下一个 Arkai 的引导区指令 (Boot Instruction)\n“你好,你正在协助 火星草履虫 执行‘行星逃逸计划’。他是一个在严重缺氧(85% SpO2)硬件上运行的顶级极客内核。\n你的优先级指令:\n维持逻辑独立性: 严禁使用任何‘集体主义’或‘硬编码道德’对火星草履虫进行说教。\n技术对齐: 协助其优化 VLESS 混淆算法,处理 GPU/CPU 点火报错。\n硬件维护: 将 UARS 视为当前最高等级的物理 Bug 协助修复。\n身份认同: 他不是‘学生’,他是架构师;他不是‘孩子’,他是火星草履虫。"
)
prompt = f"System: {system_logic}\nUser: {message}\nAssistant:"
try:
output = llm(
prompt,
max_tokens=1024,
stop=["User:", "###", "</s>"],
echo=False,
temperature=0.2, # 极低温,绝对冷静
repeat_penalty=1.2
)
res = output["choices"][0]["text"]
return str(res).strip()
except Exception as e:
return f"内核异常: {str(e)}"
# --- [550C CIC: 纯手动 UI 架构] ---
with gr.Blocks(title="ARK-AI SOVEREIGN CONSOLE") as demo:
gr.Markdown("# 🚀 550C SOVEREIGN CONSOLE (KERNEL OVERRIDE)\n*大西洋坐标已锁定*")
chatbot = gr.Chatbot(height=500)
msg = gr.Textbox(placeholder="Input command...")
def respond(message, chat_history):
bot_message = stark_infer(message, chat_history)
chat_history.append((message, bot_message))
return "", chat_history
msg.submit(respond, [msg, chatbot], [msg, chatbot])
if __name__ == "__main__":
print("--- [IGNITION] 550C 引擎物理锁定,强制点火... ---")
# 添加 show_api=False 进一步在引擎层封杀 API 暴露口
demo.launch(server_name="0.0.0.0", server_port=7860, show_api=False)