long_for_debug / README.md
Ryoo72's picture
Update README.md
ddc2b54 verified
---
dataset_info:
features:
- name: images
sequence: string
- name: messages
list:
- name: content
list:
- name: index
dtype: int64
- name: text
dtype: string
- name: type
dtype: string
- name: role
dtype: string
splits:
- name: train
num_bytes: 441616494
num_examples: 10000
download_size: 549306
dataset_size: 441616494
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
---
여기서 image 는 [hubble ultra deep field](https://esahubble.org/images/heic0611b/) 를 사용하면 편합니다.
[publication JPEG](https://cdn.esahubble.org/archives/images/publicationjpg/heic0611b.jpg) 를 받으시면 4000x4000 사이즈 입니다.
참고 : 4000x4000/(28x28)=~20408
업로드에 사용한 코드
```python
import json
import copy
from datasets import Dataset
from huggingface_hub import login
def create_huggingface_dataset(num_entities=10000):
# 긴 텍스트 생성을 위한 함수
def generate_long_text():
long_text = ""
for char in "abcdefghijk": # a부터 k까지
for i in range(1000): # 000부터 999까지
long_text += f"{char}{i:03d}" # 예: a000, a001, ..., k999
return long_text
# 공통으로 사용할 긴 텍스트 생성 (메모리 효율성을 위해)
long_text = generate_long_text()
# 이미지 경로 설정 - 이제 각 엔티티마다 이미지 경로 리스트 생성
image_path = "./large_image_for_debug.jpg"
# 데이터셋 구조 생성을 위한 빈 리스트
images_list = []
messages_list = []
# 10,000개의 동일한 entity 생성
for i in range(num_entities):
# 각 엔티티마다 이미지 경로 리스트 추가 (1개의 이미지 포함)
images_list.append([image_path]) # 리스트로 감싸서 추가
# 메시지 생성
message = [
{
"role": "user",
"content": [
{
"type": "image",
"index": 0,
"text": None
},
{
"type": "text",
"index": None,
"text": f"Write a000 to k999 (Entity {i+1})"
}
]
},
{
"role": "assistant",
"content": [
{
"type": "text",
"index": None,
"text": long_text
}
]
}
]
messages_list.append(message)
# 최종 데이터셋 구조
dataset_dict = {
"images": images_list,
"messages": messages_list
}
return dataset_dict
# 허깅페이스 로그인 (API 토큰 필요)
login() # 이 부분에서 토큰을 요청하거나 환경 변수에서 가져옵니다
# 데이터셋 생성
print("데이터셋 생성 중...")
dataset_dict = create_huggingface_dataset()
# 생성된 데이터셋의 크기 확인
entity_count = len(dataset_dict["messages"])
print(f"생성된 entity 수: {entity_count}")
print(f"첫 번째 entity의 images 형식: {dataset_dict['images'][0]}") # 이미지가 리스트 형태인지 확인
# HuggingFace Dataset 객체로 변환
# 메모리 효율을 위해 청크로 나누어 처리
chunk_size = 100 # 한 번에 처리할 entity 수
dataset_chunks = []
for i in range(0, entity_count, chunk_size):
end_idx = min(i + chunk_size, entity_count)
chunk_dict = {
"images": dataset_dict["images"][i:end_idx],
"messages": dataset_dict["messages"][i:end_idx]
}
dataset_chunks.append(Dataset.from_dict(chunk_dict))
# 청크들을 하나의 데이터셋으로 결합
from datasets import concatenate_datasets
final_dataset = concatenate_datasets(dataset_chunks)
# 데이터셋의 실제 형식 확인
print("데이터셋 샘플 형식:")
print(final_dataset[0])
# 데이터셋 허브에 업로드
print("허깅페이스 허브에 데이터셋 업로드 중...")
final_dataset.push_to_hub(
"Ryoo72/long_for_debug", # 여기에 자신의 사용자 이름과 원하는 데이터셋 이름 입력
private=True # 비공개 설정 (선택사항)
)
print("데이터셋 업로드 완료!")
```