| import datasets | |
| import pyarrow | |
| def test_local_hf_match( | |
| dataset_tag, | |
| split): | |
| print(f"For dataset '{dataset_tag}' and split '{split}' testing if local and remote ids match ...") | |
| ids_hf = datasets.load_dataset( | |
| path = "maom/MegaScale", | |
| name = dataset_tag, | |
| data_dir = dataset_tag, | |
| cache_dir = "/scratch/maom_root/maom0/maom", | |
| keep_in_memory = True).data[split].select(['id']).to_pandas() | |
| ids_local = pyarrow.parquet.read_table( | |
| source = f"intermediate/{dataset_tag}_{split}.parquet", | |
| columns = ["id"]).to_pandas() | |
| assert ids_local.equals(ids_hf) | |
| test_local_hf_match("dataset1", "train") | |
| test_local_hf_match("dataset2", "train") | |
| test_local_hf_match("dataset3", "train") | |
| test_local_hf_match("dataset3_single", "train") | |
| test_local_hf_match("dataset3_single", "val") | |
| test_local_hf_match("dataset3_single", "test") | |
| test_local_hf_match("dataset3_single_cv", "train_0") | |
| test_local_hf_match("dataset3_single_cv", "train_1") | |
| test_local_hf_match("dataset3_single_cv", "train_2") | |
| test_local_hf_match("dataset3_single_cv", "train_3") | |
| test_local_hf_match("dataset3_single_cv", "train_4") | |
| test_local_hf_match("dataset3_single_cv", "val_0") | |
| test_local_hf_match("dataset3_single_cv", "val_1") | |
| test_local_hf_match("dataset3_single_cv", "val_2") | |
| test_local_hf_match("dataset3_single_cv", "val_3") | |
| test_local_hf_match("dataset3_single_cv", "val_4") | |
| test_local_hf_match("dataset3_single_cv", "test_0") | |
| test_local_hf_match("dataset3_single_cv", "test_1") | |
| test_local_hf_match("dataset3_single_cv", "test_2") | |
| test_local_hf_match("dataset3_single_cv", "test_3") | |
| test_local_hf_match("dataset3_single_cv", "test_4") | |