Dataset Viewer
The dataset viewer is not available for this subset.
Cannot get the split names for the config 'default' of the dataset.
Exception:    SplitsNotFoundError
Message:      The split names could not be parsed from the dataset config.
Traceback:    Traceback (most recent call last):
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 286, in get_dataset_config_info
                  for split_generator in builder._split_generators(
                                         ^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/webdataset/webdataset.py", line 82, in _split_generators
                  raise ValueError(
              ValueError: The TAR archives of the dataset should be in WebDataset format, but the files in the archive don't share the same prefix or the same types.
              
              The above exception was the direct cause of the following exception:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/split_names.py", line 65, in compute_split_names_from_streaming_response
                  for split in get_dataset_split_names(
                               ^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 340, in get_dataset_split_names
                  info = get_dataset_config_info(
                         ^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 291, in get_dataset_config_info
                  raise SplitsNotFoundError("The split names could not be parsed from the dataset config.") from err
              datasets.inspect.SplitsNotFoundError: The split names could not be parsed from the dataset config.

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

Bigdata Project Assets (The "Brain") 🧠

Đây là repository lưu trữ các bản sao lưu (snapshots) cơ sở dữ liệu cho hệ thống Bigdata AI Document Processing.

🎯 Mục đích & Ý nghĩa

Trong các hệ thống AI xử lý dữ liệu lớn, việc tách biệt Dữ liệu thô (Raw Data)Dữ liệu đã xử lý (Processed/Brain Data) là cực kỳ quan trọng:

  • Raw Data (~48GB): Là các file ảnh/PDF ban đầu. Việc tải và xử lý lại từ đầu tốn rất nhiều thời gian.
  • Brain Data (Vài MB - GB): Là kết quả của quá trình index (Vector embeddings, Metadata). Đây là những gì được lưu trữ tại repository này.

=> Lợi ích: Bạn có thể setup máy mới và Chat được ngay lập tức chỉ bằng cách tải "Bộ não" này về, mà không cần tải 48GB dữ liệu thô ngay lúc đó.

📦 Danh sách Assets

  • infra_milvus_data.tar.gz: Chứa toàn bộ Vector Embeddings của tài liệu (BGE-M3).
  • infra_postgres_data.tar.gz: Chứa thông tin Metadata, cấu hình hệ thống và lịch sử.
  • infra_minio_data.tar.gz: Chứa metadata của Object Storage và các file đã xử lý quy mô nhỏ.
  • infra_etcd_data.tar.gz: Trạng thái cấu hình của cluster Milvus.

🛠️ Quy trình khôi phục nhanh (Quick Restore)

Các assets này được thiết kế để hoạt động cùng với script setup.sh trong mã nguồn chính.

  1. Clone mã nguồn từ GitHub:
    git clone https://github.com/congkx123789/bigdata_project.git
    cd bigdata_project
    
  2. Chạy script Setup thông minh:
    export HF_TOKEN="your_huggingface_token_here"
    ./setup.sh
    
  3. Xác nhận Restore: Khi script hỏi Do you want to restore data from Hugging Face?, hãy chọn y.

🔗 Liên kết quan trọng


Lưu ý: Nếu bạn muốn tải dữ liệu thô (48GB RVL-CDIP), hãy sử dụng công cụ download_datasets.sh có sẵn trong repository GitHub.

Downloads last month
33