File size: 4,340 Bytes
1c25c2f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
import json
import random
from copy import deepcopy

def assign_pause_tokens_to_keys(keys, pause_token_count):
    """
    为每个键预分配一组pause token
    :param keys: 需要分配pause token的键列表
    :param pause_token_count: 每个键分配几个pause token
    :return: 一个字典,键为user_input的键,值为对应的pause token列表
    """
    pause_token_map = {}
    pause_counter = 0
    for key in keys:
        pause_tokens = [f"<pause_{pause_counter + j}>" for j in range(pause_token_count)]
        pause_token_map[key] = " ".join(pause_tokens)
        pause_counter += pause_token_count
    return pause_token_map

def mask_user_input(user_input, max_mask_count, pause_token_map):
    """
    随机对user_input中的某些键进行mask,使用预分配的pause token
    :param user_input: 原始的user_input字典
    :param max_mask_count: 最多覆盖几个键的值
    :param pause_token_map: 预分配的pause token字典
    :return: 处理后的user_input字典
    """
    keys = list(pause_token_map.keys())
    
    # 随机选择要mask的键
    mask_count = random.randint(1, max_mask_count)
    selected_keys = random.sample(keys, mask_count)
    
    # 对选中的键进行mask,使用预分配的pause token
    for key in selected_keys:
        user_input[key] = pause_token_map[key]
    
    return user_input

def generate_masked_data(data, max_mask_count, pause_token_count, mask_keys=None):
    """
    生成mask后的数据
    :param data: 原始数据列表
    :param max_mask_count: 最多覆盖几个键的值
    :param pause_token_count: 每个被覆盖的键值插入几个pause token
    :param mask_keys: 指定要覆盖的键列表,如果为None,则随机选择
    :return: mask后的数据列表
    """
    # 确定需要分配pause token的键
    if mask_keys is None:
        mask_keys = list(data[0]['user_input'].keys())  # 默认使用所有键
    
    # 为每个键预分配pause token
    pause_token_map = assign_pause_tokens_to_keys(mask_keys, pause_token_count)
    
    # 生成mask后的数据
    masked_data = []
    for item in data:
        masked_item = deepcopy(item)
        masked_item['user_input'] = mask_user_input(masked_item['user_input'], max_mask_count, pause_token_map)
        masked_data.append(masked_item)
    return masked_data

def split_data(data, train_ratio=0.9):
    """
    划分训练集和测试集
    :param data: 数据列表
    :param train_ratio: 训练集比例
    :return: 训练集和测试集
    """
    random.shuffle(data)
    train_size = int(len(data) * train_ratio)
    train_data = data[:train_size]
    eval_data = data[train_size:]
    return train_data, eval_data

def save_jsonl(data, file_path):
    """
    保存数据为JSONL文件
    :param data: 数据列表
    :param file_path: 文件路径
    """
    with open(file_path, 'w', encoding='utf-8') as f:
        for item in data:
            f.write(json.dumps(item, ensure_ascii=False) + '\n')

def main():
    # 文件路径
    input_jsonl_path = '/mnt/afs/xueyingyi/meme/generate/user_input.jsonl'  # 输入JSONL文件路径
    output_train_jsonl_path = '/mnt/afs/xueyingyi/meme/pause_data/three_item/C_generate_train_multi.jsonl'  # 训练集路径
    output_eval_jsonl_path = '/mnt/afs/xueyingyi/meme/pause_data/three_item/C_generate_eval_multi.jsonl'  # 测试集路径

    # 读取user_input.jsonl文件
    data = []
    with open(input_jsonl_path, 'r', encoding='utf-8') as f:
        for line in f:
            data.append(json.loads(line.strip()))

    # 参数设置
    max_mask_count = 1  # 最多覆盖2个键的值
    pause_token_count = 3  # 每个被覆盖的键值插入3个pause token
    mask_keys = ["Emotion Category", "Emotion Intensity"]  # 指定要覆盖的键

    # 生成mask后的数据
    masked_data = generate_masked_data(data, max_mask_count, pause_token_count, mask_keys)

    # 划分训练集和测试集
    train_data, eval_data = split_data(masked_data, train_ratio=0.9)

    # 保存训练集和测试集
    save_jsonl(train_data, output_train_jsonl_path)
    save_jsonl(eval_data, output_eval_jsonl_path)

    print("数据处理完成!")
    print(f"训练集大小: {len(train_data)}")
    print(f"测试集大小: {len(eval_data)}")

if __name__ == "__main__":
    main()