Datasets:
Shape Polygons Dataset - コード書き換え指示書
このドキュメントは、既存のコードをShape Polygons Datasetを使用するように書き換えるための指示書です。
データセット概要
| 項目 | 内容 |
|---|---|
| 名前 | Shape Polygons Dataset |
| 総画像数 | 70,000枚(train: 60,000 / test: 10,000) |
| 画像形式 | PNG |
| 画像サイズ | 小さい正方形画像(黒背景に色付きポリゴン) |
| クラス数 | 6(3〜8角形) |
| メタデータ | CSV形式 |
ディレクトリ構造
shape-polygons-dataset/
├── train/
│ ├── images/
│ │ ├── 00001.png
│ │ ├── 00002.png
│ │ └── ... (60,000 images)
│ └── metadata.csv
├── test/
│ ├── images/
│ │ ├── 00001.png
│ │ └── ... (10,000 images)
│ └── metadata.csv
└── example.py
メタデータ (metadata.csv) のカラム
| カラム名 | 型 | 説明 | 範囲 |
|---|---|---|---|
filename |
string | 画像ファイル名 | "00001.png" 形式 |
size |
float | ポリゴンの相対サイズ | 0.0 〜 1.0 |
angle |
float | 回転角度(度) | 0.0 〜 360.0 |
vertices |
int | 頂点数(クラスラベル) | 3, 4, 5, 6, 7, 8 |
center_x |
float | 中心X座標(正規化) | 0.0 〜 1.0 |
center_y |
float | 中心Y座標(正規化) | 0.0 〜 1.0 |
color_r |
float | 赤色成分 | 0.0 〜 1.0 |
color_g |
float | 緑色成分 | 0.0 〜 1.0 |
color_b |
float | 青色成分 | 0.0 〜 1.0 |
タスク別の使い方
1. 画像分類(Classification)
目的: 画像から頂点数(3〜8)を予測する
# クラスラベルの変換
# vertices: 3, 4, 5, 6, 7, 8 → label: 0, 1, 2, 3, 4, 5
label = row["vertices"] - 3
# クラス数
num_classes = 6
# クラス名
class_names = ["Triangle", "Quadrilateral", "Pentagon", "Hexagon", "Heptagon", "Octagon"]
2. 回帰(Regression)
目的: サイズ、角度、位置などの連続値を予測
# 単一値回帰
target = row["size"] # または row["angle"]
# 複数値回帰
target = [row["center_x"], row["center_y"]]
# 色の回帰
target = [row["color_r"], row["color_g"], row["color_b"]]
3. マルチタスク学習
targets = {
"vertices": row["vertices"] - 3, # 分類
"size": row["size"], # 回帰
"angle": row["angle"], # 回帰
"center": [row["center_x"], row["center_y"]], # 回帰
"color": [row["color_r"], row["color_g"], row["color_b"]] # 回帰
}
コード書き換えパターン
パターン A: 既存のImageFolderベースのコードを変換
変換前(ImageFolder):
from torchvision.datasets import ImageFolder
dataset = ImageFolder("data/train", transform=transform)
変換後:
import pandas as pd
from torch.utils.data import Dataset
from PIL import Image
import os
class ShapePolygonsDataset(Dataset):
def __init__(self, root_dir, split="train", transform=None):
self.root_dir = root_dir
self.split = split
self.transform = transform
self.metadata = pd.read_csv(os.path.join(root_dir, split, "metadata.csv"))
def __len__(self):
return len(self.metadata)
def __getitem__(self, idx):
row = self.metadata.iloc[idx]
img_path = os.path.join(self.root_dir, self.split, "images", row["filename"])
image = Image.open(img_path).convert("RGB")
if self.transform:
image = self.transform(image)
label = row["vertices"] - 3 # 0-5 for 3-8 vertices
return image, label
dataset = ShapePolygonsDataset("path/to/dataset", split="train", transform=transform)
パターン B: Hugging Face Datasetsを使用
from datasets import load_dataset
# Hugging Face Hubからロード
dataset = load_dataset("kimura-koya/shape-polygons-dataset")
# ローカルからロード(ImageFolder形式として)
dataset = load_dataset("imagefolder", data_dir="path/to/dataset")
# アクセス
train_data = dataset["train"]
test_data = dataset["test"]
パターン C: シンプルなPandas + PILでのロード
import pandas as pd
from PIL import Image
import os
# メタデータ読み込み
train_df = pd.read_csv("train/metadata.csv")
test_df = pd.read_csv("test/metadata.csv")
# 画像読み込み関数
def load_image(split, filename):
return Image.open(os.path.join(split, "images", filename))
# 使用例
for idx, row in train_df.iterrows():
img = load_image("train", row["filename"])
label = row["vertices"]
# 処理...
よくある変換パターン
MNIST/CIFAR → Shape Polygons
| MNIST/CIFAR | Shape Polygons |
|---|---|
torchvision.datasets.MNIST(...) |
ShapePolygonsDataset(root, split="train") |
dataset.classes |
["Triangle", "Quadrilateral", "Pentagon", "Hexagon", "Heptagon", "Octagon"] |
len(dataset.classes) = 10 |
num_classes = 6 |
| グレースケール/RGB | RGB(黒背景にカラーポリゴン) |
設定変更のチェックリスト
書き換え時に確認すべき項目:
-
num_classesを 6 に変更 - データセットのパスを変更
- 画像の前処理(Normalize等)を確認
- train/test/validation の分割方法を確認
- クラス名のリストを更新
- 評価指標が分類タスクに適切か確認
データセット統計
参考情報として、各クラスの分布:
Train Set (60,000 images):
3 vertices (Triangle): 約10,000枚
4 vertices (Quadrilateral): 約10,000枚
5 vertices (Pentagon): 約10,000枚
6 vertices (Hexagon): 約10,000枚
7 vertices (Heptagon): 約10,000枚
8 vertices (Octagon): 約10,000枚
※ ほぼ均等に分布
注意事項
- 画像サイズ: 小さい画像なので、大きなモデルではリサイズが必要な場合あり
- 背景: 黒背景(RGB: 0, 0, 0)にカラーポリゴン
- 合成データ: すべてプログラムで生成された合成データ
- ファイル名: 5桁のゼロパディング(00001.png 〜 60000.png)
サンプルコード(そのまま使用可能)
example.py に以下の機能があります:
ShapePolygonsDatasetクラス(PyTorch Dataset)load_dataset()関数(Pandas DataFrame返却)load_image()関数(PIL Image返却)- 可視化関数各種
# example.py をインポートして使用
from example import ShapePolygonsDataset, load_dataset, load_image