shape-polygons / AGENT_INSTRUCTIONS.md
kimura-koya's picture
Add files using upload-large-folder tool
a0baaca verified
|
raw
history blame
6.83 kB

Shape Polygons Dataset - コード書き換え指示書

このドキュメントは、既存のコードをShape Polygons Datasetを使用するように書き換えるための指示書です。


データセット概要

項目 内容
名前 Shape Polygons Dataset
総画像数 70,000枚(train: 60,000 / test: 10,000)
画像形式 PNG
画像サイズ 小さい正方形画像(黒背景に色付きポリゴン)
クラス数 6(3〜8角形)
メタデータ CSV形式

ディレクトリ構造

shape-polygons-dataset/
├── train/
│   ├── images/
│   │   ├── 00001.png
│   │   ├── 00002.png
│   │   └── ... (60,000 images)
│   └── metadata.csv
├── test/
│   ├── images/
│   │   ├── 00001.png
│   │   └── ... (10,000 images)
│   └── metadata.csv
└── example.py

メタデータ (metadata.csv) のカラム

カラム名 説明 範囲
filename string 画像ファイル名 "00001.png" 形式
size float ポリゴンの相対サイズ 0.0 〜 1.0
angle float 回転角度(度) 0.0 〜 360.0
vertices int 頂点数(クラスラベル) 3, 4, 5, 6, 7, 8
center_x float 中心X座標(正規化) 0.0 〜 1.0
center_y float 中心Y座標(正規化) 0.0 〜 1.0
color_r float 赤色成分 0.0 〜 1.0
color_g float 緑色成分 0.0 〜 1.0
color_b float 青色成分 0.0 〜 1.0

タスク別の使い方

1. 画像分類(Classification)

目的: 画像から頂点数(3〜8)を予測する

# クラスラベルの変換
# vertices: 3, 4, 5, 6, 7, 8 → label: 0, 1, 2, 3, 4, 5
label = row["vertices"] - 3

# クラス数
num_classes = 6

# クラス名
class_names = ["Triangle", "Quadrilateral", "Pentagon", "Hexagon", "Heptagon", "Octagon"]

2. 回帰(Regression)

目的: サイズ、角度、位置などの連続値を予測

# 単一値回帰
target = row["size"]  # または row["angle"]

# 複数値回帰
target = [row["center_x"], row["center_y"]]

# 色の回帰
target = [row["color_r"], row["color_g"], row["color_b"]]

3. マルチタスク学習

targets = {
    "vertices": row["vertices"] - 3,  # 分類
    "size": row["size"],               # 回帰
    "angle": row["angle"],             # 回帰
    "center": [row["center_x"], row["center_y"]],  # 回帰
    "color": [row["color_r"], row["color_g"], row["color_b"]]  # 回帰
}

コード書き換えパターン

パターン A: 既存のImageFolderベースのコードを変換

変換前(ImageFolder):

from torchvision.datasets import ImageFolder
dataset = ImageFolder("data/train", transform=transform)

変換後:

import pandas as pd
from torch.utils.data import Dataset
from PIL import Image
import os

class ShapePolygonsDataset(Dataset):
    def __init__(self, root_dir, split="train", transform=None):
        self.root_dir = root_dir
        self.split = split
        self.transform = transform
        self.metadata = pd.read_csv(os.path.join(root_dir, split, "metadata.csv"))
    
    def __len__(self):
        return len(self.metadata)
    
    def __getitem__(self, idx):
        row = self.metadata.iloc[idx]
        img_path = os.path.join(self.root_dir, self.split, "images", row["filename"])
        image = Image.open(img_path).convert("RGB")
        
        if self.transform:
            image = self.transform(image)
        
        label = row["vertices"] - 3  # 0-5 for 3-8 vertices
        return image, label

dataset = ShapePolygonsDataset("path/to/dataset", split="train", transform=transform)

パターン B: Hugging Face Datasetsを使用

from datasets import load_dataset

# Hugging Face Hubからロード
dataset = load_dataset("kimura-koya/shape-polygons-dataset")

# ローカルからロード(ImageFolder形式として)
dataset = load_dataset("imagefolder", data_dir="path/to/dataset")

# アクセス
train_data = dataset["train"]
test_data = dataset["test"]

パターン C: シンプルなPandas + PILでのロード

import pandas as pd
from PIL import Image
import os

# メタデータ読み込み
train_df = pd.read_csv("train/metadata.csv")
test_df = pd.read_csv("test/metadata.csv")

# 画像読み込み関数
def load_image(split, filename):
    return Image.open(os.path.join(split, "images", filename))

# 使用例
for idx, row in train_df.iterrows():
    img = load_image("train", row["filename"])
    label = row["vertices"]
    # 処理...

よくある変換パターン

MNIST/CIFAR → Shape Polygons

MNIST/CIFAR Shape Polygons
torchvision.datasets.MNIST(...) ShapePolygonsDataset(root, split="train")
dataset.classes ["Triangle", "Quadrilateral", "Pentagon", "Hexagon", "Heptagon", "Octagon"]
len(dataset.classes) = 10 num_classes = 6
グレースケール/RGB RGB(黒背景にカラーポリゴン)

設定変更のチェックリスト

書き換え時に確認すべき項目:

  • num_classes を 6 に変更
  • データセットのパスを変更
  • 画像の前処理(Normalize等)を確認
  • train/test/validation の分割方法を確認
  • クラス名のリストを更新
  • 評価指標が分類タスクに適切か確認

データセット統計

参考情報として、各クラスの分布:

Train Set (60,000 images):
  3 vertices (Triangle):     約10,000枚
  4 vertices (Quadrilateral): 約10,000枚
  5 vertices (Pentagon):      約10,000枚
  6 vertices (Hexagon):       約10,000枚
  7 vertices (Heptagon):      約10,000枚
  8 vertices (Octagon):       約10,000枚

※ ほぼ均等に分布


注意事項

  1. 画像サイズ: 小さい画像なので、大きなモデルではリサイズが必要な場合あり
  2. 背景: 黒背景(RGB: 0, 0, 0)にカラーポリゴン
  3. 合成データ: すべてプログラムで生成された合成データ
  4. ファイル名: 5桁のゼロパディング(00001.png 〜 60000.png)

サンプルコード(そのまま使用可能)

example.py に以下の機能があります:

  • ShapePolygonsDataset クラス(PyTorch Dataset)
  • load_dataset() 関数(Pandas DataFrame返却)
  • load_image() 関数(PIL Image返却)
  • 可視化関数各種
# example.py をインポートして使用
from example import ShapePolygonsDataset, load_dataset, load_image