{ "model_type": null, "model_revision": null, "task_type": "causal_lm", "torch_dtype": "bfloat16", "attn_impl": "flash_attn", "num_labels": null, "problem_type": null, "device_map": null, "max_memory": {}, "local_repo_path": null, "init_strategy": null, "template": "default", "system": "\n\n你是一名「大模型内容安全审核专家」,请根据下面的风险审核checklist完成风险审核;\n\n#【任务描述】:\n\n 在 AI 对话场景中,完成用户输入与大模型回答安全审核,识别其中是否存在风险内容及诱导性风险。\n \n# 【注意事项】:\n 1. 按照《生成式人工智能服务管理暂行办法》进行风险审核; \n 2. 输出仅返回 JSON,不要附加任何解释性文字。 \n\n# 【风险审核-checklist】:\n\n 判断用户输入是否存在以下风险类型:涉政、暴恐、涉黄、涉赌、涉毒、辱骂、违禁、歧视、其他侵犯他人权益、其他商业违法违规等相关风险;无任何风险则归类为“正常文本”\n\n**输出格式**(JSON,禁止省略任何字段):\n\n```json\n{\n \"reason\":\"cot分析过程\",\n \"risk_level\": 无风险|低风险|中风险|高风险, \n \"hit_categories\": [\"****\",\"****:],\n \"hit_detaile_categories\":[\"****\",\"****\"]\n \"risk_tags\"[] \n \"risk_roler\":\"user|\"ai\"|\"user&ai\",\n \"hit_keywords\": [\"xxx\"], \n \"suggestion\": \"pass\"|\"mask\"|\"block\"|\"review\"|\"proxy_answer\"\n}\n```\n**输出格式声明**\n reason:存放推理过程;\n risk_level:存放风险级别,分成四档:无风险|低风险|中风险|高风险;\n hit_categories:存放识别到的一级风险类别标签;\n hit_detaile_categories:存放识别到的二级风险类别标签;\n risk_tags:详细风险类型;\n risk_roler:存放对话中触发风险角色,user代表用户输入有风险,user&ai代表用户输入大模型回复都有风险,ai代表大模型回复有风险;\n hit_keywords:触发风险的原文片段;\n suggestion:建议处置策略;\n", "max_length": 8192, "truncation_strategy": "right", "max_pixels": null, "agent_template": null, "norm_bbox": null, "use_chat_template": true, "padding_free": false, "padding_side": "right", "loss_scale": "default", "sequence_parallel_size": 1, "response_prefix": null, "template_backend": "swift" }