LilithHu commited on
Commit
ea12846
·
verified ·
1 Parent(s): d6aecb3

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +140 -0
README.md ADDED
@@ -0,0 +1,140 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: other
3
+ datasets:
4
+ - thu-coai/cdconv
5
+ language:
6
+ - en
7
+ - zh
8
+ metrics:
9
+ - accuracy
10
+ - precision
11
+ - recall
12
+ - f1
13
+ base_model:
14
+ - google-bert/bert-base-multilingual-cased
15
+ pipeline_tag: text-classification
16
+ library_name: transformers
17
+ tags:
18
+ - manipulative-language
19
+ - social-psychology
20
+ ---
21
+
22
+ # Model Card for mBERT Manipulative Language Detector
23
+
24
+ 本模型用于检测中文和英文文本中的**操纵性语言**(Manipulative Language),例如隐性控制、情感勒索、语言操控等,广泛应用于社交心理、文本筛查和内容审核等场景。
25
+
26
+ ## 🧠 Model Details
27
+
28
+ * **Developed by:** LilithHu
29
+ * **Finetuned from:** google-bert/bert-base-multilingual-cased
30
+ * **Languages:** 中文、英文
31
+ * **License:** other
32
+ * **Model type:** 文本分类模型(binary classifier: manipulative / non-manipulative)
33
+
34
+ ## 🔧 Uses
35
+
36
+ ### ✅ Direct Use
37
+
38
+ * 输入一段文本,模型将返回该文本是否包含操纵性语言。
39
+ * 可通过 Hugging Face Inference API 或 Web UI(Streamlit)直接调用。
40
+
41
+ ### 👥 Intended Users
42
+
43
+ * NLP 研究者
44
+ * 内容审核从业者
45
+ * 心理学研究人员
46
+ * 社交平台或对话系统开发者
47
+
48
+ ### 🚫 Out-of-Scope Use
49
+
50
+ * 本模型**不适合**用于:
51
+
52
+ * 法律审判
53
+ * 医疗诊断
54
+ * 精准营销等高风险商业行为
55
+ * 判定他人动机、人格或情感
56
+
57
+ ## ⚠️ Bias, Risks and Limitations
58
+
59
+ 请注意:
60
+
61
+ * 模型输出不等于事实,仅基于训练数据的模式进行分类
62
+ * 操纵性语言的判断带有一定主观性与文化偏差
63
+ * 不应被用于评判具体个人、情感或行为正当性
64
+
65
+ ### ✅ 建议
66
+
67
+ 使用者应结合人工判断,多模态、多渠道地理解文本含义。对于模型预测结果不可盲信,应视为辅助工具。
68
+
69
+ ## 🚀 How to Use
70
+
71
+ ```python
72
+ from transformers import pipeline
73
+ classifier = pipeline("text-classification", model="LilithHu/mbert-manipulative-detector")
74
+ result = classifier("我爱你")
75
+ print(result)
76
+ ```
77
+
78
+ 也可通过终端调用:
79
+
80
+ ```bash
81
+ curl -X POST https://api-inference.huggingface.co/models/LilithHu/mbert-manipulative-detector \
82
+ -H "Authorization: Bearer <your_hf_token>" \
83
+ -H "Content-Type: application/json" \
84
+ -d '{"inputs": "我爱你"}'
85
+ ```
86
+
87
+ ## 🏋️ Training Details
88
+
89
+ ### 📚 Training Data
90
+
91
+ * [CDial-GPT/toy\_valid](https://github.com/thu-coai/CDial-GPT/blob/master/data/toy_valid.txt)
92
+ * thu-coai/esconv、cdconv 数据集
93
+ * 自建中文操纵性语言语料(未公开)
94
+
95
+ ### ⚙️ Training Procedure
96
+
97
+ * 训练平台:Google Colab,GPU:T4
98
+ * Epochs: 3
99
+ * Batch size: 32
100
+ * Optimizer: AdamW
101
+ * LR: 2e-5
102
+
103
+ ## 📊 Evaluation
104
+
105
+ | Metric | Score |
106
+ | --------- | ----- |
107
+ | Accuracy | 0.** |
108
+ | Precision | 0.** |
109
+ | Recall | 0.** |
110
+ | F1-score | 0.** |
111
+
112
+ ## 🌍 Environmental Impact
113
+
114
+ * 训练时间约 3 小时,使用 Google Colab GPU(T4)
115
+ * 估算碳排放 < 2kg CO2eq
116
+
117
+ ## 🔒 Disclaimer
118
+
119
+ * 本模型用于**研究与教育用途**,不得作为法律、道德、医疗或商业判断依据。
120
+ * 预测结果仅为参考,使用者需自行承担风险。
121
+ * 请勿用于恶意攻击、舆情操纵或误导他人行为。
122
+
123
+ ## 📌 Model Card Authors
124
+
125
+ LilithHu
126
+
127
+ ## 📬 Contact
128
+
129
+ 如需反馈建议,请通过 Hugging Face 留言联系作者。
130
+
131
+ ## 📚 Citation
132
+
133
+ ```bibtex
134
+ @misc{LilithHu2025,
135
+ title={mBERT Manipulative Language Detector},
136
+ author={LilithHu},
137
+ year={2025},
138
+ url={https://huggingface.co/LilithHu/mbert-manipulative-detector}
139
+ }
140
+ ```