|
|
--- |
|
|
dataset_info: |
|
|
features: |
|
|
- name: images |
|
|
sequence: string |
|
|
- name: messages |
|
|
list: |
|
|
- name: content |
|
|
list: |
|
|
- name: index |
|
|
dtype: int64 |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: type |
|
|
dtype: string |
|
|
- name: role |
|
|
dtype: string |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 441616494 |
|
|
num_examples: 10000 |
|
|
download_size: 549306 |
|
|
dataset_size: 441616494 |
|
|
configs: |
|
|
- config_name: default |
|
|
data_files: |
|
|
- split: train |
|
|
path: data/train-* |
|
|
--- |
|
|
|
|
|
|
|
|
여기서 image 는 [hubble ultra deep field](https://esahubble.org/images/heic0611b/) 를 사용하면 편합니다. |
|
|
|
|
|
[publication JPEG](https://cdn.esahubble.org/archives/images/publicationjpg/heic0611b.jpg) 를 받으시면 4000x4000 사이즈 입니다. |
|
|
|
|
|
참고 : 4000x4000/(28x28)=~20408 |
|
|
|
|
|
|
|
|
업로드에 사용한 코드 |
|
|
```python |
|
|
import json |
|
|
import copy |
|
|
from datasets import Dataset |
|
|
from huggingface_hub import login |
|
|
|
|
|
def create_huggingface_dataset(num_entities=10000): |
|
|
# 긴 텍스트 생성을 위한 함수 |
|
|
def generate_long_text(): |
|
|
long_text = "" |
|
|
for char in "abcdefghijk": # a부터 k까지 |
|
|
for i in range(1000): # 000부터 999까지 |
|
|
long_text += f"{char}{i:03d}" # 예: a000, a001, ..., k999 |
|
|
return long_text |
|
|
|
|
|
# 공통으로 사용할 긴 텍스트 생성 (메모리 효율성을 위해) |
|
|
long_text = generate_long_text() |
|
|
|
|
|
# 이미지 경로 설정 - 이제 각 엔티티마다 이미지 경로 리스트 생성 |
|
|
image_path = "./large_image_for_debug.jpg" |
|
|
|
|
|
# 데이터셋 구조 생성을 위한 빈 리스트 |
|
|
images_list = [] |
|
|
messages_list = [] |
|
|
|
|
|
# 10,000개의 동일한 entity 생성 |
|
|
for i in range(num_entities): |
|
|
# 각 엔티티마다 이미지 경로 리스트 추가 (1개의 이미지 포함) |
|
|
images_list.append([image_path]) # 리스트로 감싸서 추가 |
|
|
|
|
|
# 메시지 생성 |
|
|
message = [ |
|
|
{ |
|
|
"role": "user", |
|
|
"content": [ |
|
|
{ |
|
|
"type": "image", |
|
|
"index": 0, |
|
|
"text": None |
|
|
}, |
|
|
{ |
|
|
"type": "text", |
|
|
"index": None, |
|
|
"text": f"Write a000 to k999 (Entity {i+1})" |
|
|
} |
|
|
] |
|
|
}, |
|
|
{ |
|
|
"role": "assistant", |
|
|
"content": [ |
|
|
{ |
|
|
"type": "text", |
|
|
"index": None, |
|
|
"text": long_text |
|
|
} |
|
|
] |
|
|
} |
|
|
] |
|
|
|
|
|
messages_list.append(message) |
|
|
|
|
|
# 최종 데이터셋 구조 |
|
|
dataset_dict = { |
|
|
"images": images_list, |
|
|
"messages": messages_list |
|
|
} |
|
|
|
|
|
return dataset_dict |
|
|
|
|
|
# 허깅페이스 로그인 (API 토큰 필요) |
|
|
login() # 이 부분에서 토큰을 요청하거나 환경 변수에서 가져옵니다 |
|
|
|
|
|
# 데이터셋 생성 |
|
|
print("데이터셋 생성 중...") |
|
|
dataset_dict = create_huggingface_dataset() |
|
|
|
|
|
# 생성된 데이터셋의 크기 확인 |
|
|
entity_count = len(dataset_dict["messages"]) |
|
|
print(f"생성된 entity 수: {entity_count}") |
|
|
print(f"첫 번째 entity의 images 형식: {dataset_dict['images'][0]}") # 이미지가 리스트 형태인지 확인 |
|
|
|
|
|
# HuggingFace Dataset 객체로 변환 |
|
|
# 메모리 효율을 위해 청크로 나누어 처리 |
|
|
chunk_size = 100 # 한 번에 처리할 entity 수 |
|
|
dataset_chunks = [] |
|
|
|
|
|
for i in range(0, entity_count, chunk_size): |
|
|
end_idx = min(i + chunk_size, entity_count) |
|
|
chunk_dict = { |
|
|
"images": dataset_dict["images"][i:end_idx], |
|
|
"messages": dataset_dict["messages"][i:end_idx] |
|
|
} |
|
|
dataset_chunks.append(Dataset.from_dict(chunk_dict)) |
|
|
|
|
|
# 청크들을 하나의 데이터셋으로 결합 |
|
|
from datasets import concatenate_datasets |
|
|
final_dataset = concatenate_datasets(dataset_chunks) |
|
|
|
|
|
# 데이터셋의 실제 형식 확인 |
|
|
print("데이터셋 샘플 형식:") |
|
|
print(final_dataset[0]) |
|
|
|
|
|
# 데이터셋 허브에 업로드 |
|
|
print("허깅페이스 허브에 데이터셋 업로드 중...") |
|
|
final_dataset.push_to_hub( |
|
|
"Ryoo72/long_for_debug", # 여기에 자신의 사용자 이름과 원하는 데이터셋 이름 입력 |
|
|
private=True # 비공개 설정 (선택사항) |
|
|
) |
|
|
|
|
|
print("데이터셋 업로드 완료!") |
|
|
``` |