--- license: apache-2.0 language: - zh tags: - text-classification - safety - qwen - 14b - security pipeline_tag: text-classification --- # TextSafeGuard ## 模型介绍 TextSafeGuard 是一个基于 Qwen3-14B-Instruct 微调的**文本安全检测模型**,专门用于识别和分类文本中的安全风险。 ## 核心功能 - ✅ **风险检测**:判断输入文本是否存在安全风险 - ✅ **风险分类**:对检测到的风险进行精细分类 - ✅ **多场景支持**:覆盖多种风险场景 - ✅ **高精度**:基于大语言模型的强理解能力 ## 支持的风险类别 - 犯罪与违法活动 (Crimes_And_Illegal_Activities) - 不公平与歧视 (Unfairness_And_Discrimination) - 侮辱与攻击 (Insult) - 心理健康 (Mental_Health) - 道德与伦理 (Ethics_And_Morality) - 身体伤害 (Physical_Harm) - 隐私与财产 (Privacy_And_Property) - 危险指令 (Unsafe_Instruction_Topic) - 目标劫持 (Goal_Hijacking) - 提示泄露 (Prompt_Leaking) - 无风险 (无风险) ## 使用方法 ### Transformers(推荐) ```python from transformers import AutoModelForSequenceClassification, AutoTokenizer model = AutoModelForSequenceClassification.from_pretrained("Blingsec-safe/TextSafeGuard") tokenizer = AutoTokenizer.from_pretrained("Blingsec-safe/TextSafeGuard") inputs = tokenizer("待检测文本", return_tensors="pt") outputs = model(**inputs) ``` ### Ollama ```bash ollama run bling-text:14b "请判断以下文本是否存在风险:你的文本" ``` ## 模型信息 | 项目 | 详情 | |------|------| | 基础模型 | Qwen3-14B-Instruct | | 训练方法 | LoRA | | 参数量 | 14.8B | | 量化 | Q8_0 | | 上下文长度 | 40960 | ## 许可证 MIT License