# TextRNN 可视化实验脚本 基于原始 Chinese-Text-Classification-Pytorch 仓库重构的 TextRNN 训练脚本,专门用于可视化实验。 ## 目录结构 ``` Classification/ ├── scripts/ # 脚本文件 │ ├── model.py # 模型定义,包含feature、get_prediction、prediction函数 │ ├── train.py # 训练脚本,支持多卡训练 │ ├── train.yaml # 训练配置文件 │ ├── dataset_utils.py # 数据集处理工具 │ └── get_label.py # 标签提取脚本 ├── dataset/ # 数据集文件 │ ├── train.txt # 训练数据 │ ├── dev.txt # 验证数据 │ ├── test.txt # 测试数据 │ ├── class.txt # 类别列表 │ ├── vocab.pkl # 词汇表 │ └── labels.npy # 提取的标签 └── epochs/ # 按epoch存放模型文件和特征向量 ├── epoch_1/ │ ├── model.pt # 模型权重 │ ├── embeddings.npy # 特征向量 │ └── predictions.npy # 预测值 └── epoch_2/ └── ... ``` ## 功能说明 ### 1. model.py - **Model类**: TextRNN模型实现 - **feature()**: 提取中间层特征向量(dropout层输出),用于可视化 - **get_prediction()**: 获取模型最终层输出向量(logits) - **prediction()**: 根据中间特征向量预测结果 ### 2. train.py - 支持多GPU训练 - 每个epoch自动保存模型、特征向量、预测值到 `epochs/epoch_N/` - 支持配置文件驱动训练 - 实时显示训练进度和验证结果 ### 3. dataset_utils.py - 数据集加载和预处理 - 词汇表构建 - 数据迭代器实现 ### 4. get_label.py - 提取数据集标签并保存为 `labels.npy` - 生成类别名称映射文件 ## 使用方法 ### 1. 准备数据集 将THUCNews数据集放入 `dataset/` 目录: ```bash # 数据格式:每行一个样本,用tab分隔文本和标签 text1\t0 text2\t1 ... ``` ### 2. 提取标签 ```bash cd scripts python get_label.py --config train.yaml --output ../dataset ``` ### 3. 训练模型 ```bash cd scripts python train.py --config train.yaml ``` ### 4. 配置文件说明 编辑 `scripts/train.yaml` 来调整训练参数: ```yaml dataset_path: "../dataset" # 数据集路径 num_epochs: 20 # 训练轮数 batch_size: 128 # 批次大小 learning_rate: 0.001 # 学习率 use_word: false # false=字符级,true=词级 epochs_dir: "../epochs" # 模型保存路径 ``` ## 可视化数据 训练完成后,每个epoch的数据保存在 `epochs/epoch_N/` 中: - `model.pt`: 模型权重文件 - `embeddings.npy`: 特征向量矩阵 (N_samples, feature_dim) - `predictions.npy`: 预测值矩阵 (N_samples, num_classes) 这些数据可以直接用于可视化分析,如t-SNE降维、特征分布分析等。 ## 多GPU训练 脚本自动检测可用GPU数量并启用多GPU训练: ```python # 自动使用所有可用GPU if torch.cuda.device_count() > 1: model = nn.DataParallel(model) ``` ## 依赖要求 ```bash pip install torch numpy scikit-learn tqdm pyyaml ```