long_for_debug / README.md
Ryoo72's picture
Update README.md
ddc2b54 verified
metadata
dataset_info:
  features:
    - name: images
      sequence: string
    - name: messages
      list:
        - name: content
          list:
            - name: index
              dtype: int64
            - name: text
              dtype: string
            - name: type
              dtype: string
        - name: role
          dtype: string
  splits:
    - name: train
      num_bytes: 441616494
      num_examples: 10000
  download_size: 549306
  dataset_size: 441616494
configs:
  - config_name: default
    data_files:
      - split: train
        path: data/train-*

여기서 image 는 hubble ultra deep field 를 사용하면 편합니다.

publication JPEG 를 받으시면 4000x4000 사이즈 입니다.

참고 : 4000x4000/(28x28)=~20408

업로드에 사용한 코드

import json
import copy
from datasets import Dataset
from huggingface_hub import login

def create_huggingface_dataset(num_entities=10000):
    # 긴 텍스트 생성을 위한 함수
    def generate_long_text():
        long_text = ""
        for char in "abcdefghijk":  # a부터 k까지
            for i in range(1000):  # 000부터 999까지
                long_text += f"{char}{i:03d}"  # 예: a000, a001, ..., k999
        return long_text
    
    # 공통으로 사용할 긴 텍스트 생성 (메모리 효율성을 위해)
    long_text = generate_long_text()
    
    # 이미지 경로 설정 - 이제 각 엔티티마다 이미지 경로 리스트 생성
    image_path = "./large_image_for_debug.jpg"
    
    # 데이터셋 구조 생성을 위한 빈 리스트
    images_list = []
    messages_list = []
    
    # 10,000개의 동일한 entity 생성
    for i in range(num_entities):
        # 각 엔티티마다 이미지 경로 리스트 추가 (1개의 이미지 포함)
        images_list.append([image_path])  # 리스트로 감싸서 추가
        
        # 메시지 생성
        message = [
            {
                "role": "user",
                "content": [
                    {
                        "type": "image",
                        "index": 0,
                        "text": None
                    },
                    {
                        "type": "text",
                        "index": None,
                        "text": f"Write a000 to k999 (Entity {i+1})"
                    }
                ]
            },
            {
                "role": "assistant",
                "content": [
                    {
                        "type": "text",
                        "index": None,
                        "text": long_text
                    }
                ]
            }
        ]
        
        messages_list.append(message)
    
    # 최종 데이터셋 구조
    dataset_dict = {
        "images": images_list,
        "messages": messages_list
    }
    
    return dataset_dict

# 허깅페이스 로그인 (API 토큰 필요)
login()  # 이 부분에서 토큰을 요청하거나 환경 변수에서 가져옵니다

# 데이터셋 생성
print("데이터셋 생성 중...")
dataset_dict = create_huggingface_dataset()

# 생성된 데이터셋의 크기 확인
entity_count = len(dataset_dict["messages"])
print(f"생성된 entity 수: {entity_count}")
print(f"첫 번째 entity의 images 형식: {dataset_dict['images'][0]}")  # 이미지가 리스트 형태인지 확인

# HuggingFace Dataset 객체로 변환
# 메모리 효율을 위해 청크로 나누어 처리
chunk_size = 100  # 한 번에 처리할 entity 수
dataset_chunks = []

for i in range(0, entity_count, chunk_size):
    end_idx = min(i + chunk_size, entity_count)
    chunk_dict = {
        "images": dataset_dict["images"][i:end_idx],
        "messages": dataset_dict["messages"][i:end_idx]
    }
    dataset_chunks.append(Dataset.from_dict(chunk_dict))

# 청크들을 하나의 데이터셋으로 결합
from datasets import concatenate_datasets
final_dataset = concatenate_datasets(dataset_chunks)

# 데이터셋의 실제 형식 확인
print("데이터셋 샘플 형식:")
print(final_dataset[0])

# 데이터셋 허브에 업로드
print("허깅페이스 허브에 데이터셋 업로드 중...")
final_dataset.push_to_hub(
    "Ryoo72/long_for_debug",  # 여기에 자신의 사용자 이름과 원하는 데이터셋 이름 입력
    private=True  # 비공개 설정 (선택사항)
)

print("데이터셋 업로드 완료!")