TestModel / app.py
OpenLab-NLP's picture
Create app.py
8616c88 verified
raw
history blame
3.83 kB
import gradio as gr
import numpy as np
import tensorflow as tf
from tensorflow.keras import layers, models
import os
# 1. 모델 아키텍처 재정의 (저장된 가중치를 불러오기 위함)
class DynamicConv2D(layers.Layer):
def __init__(self, k=3, **kwargs):
super().__init__(**kwargs)
assert k % 2 == 1
self.k = k
self.generator = layers.Dense(k * k)
def call(self, x):
B, H, W, C = tf.shape(x)[0], tf.shape(x)[1], tf.shape(x)[2], tf.shape(x)[3]
kernels = self.generator(x)
kernels = tf.nn.softmax(kernels, axis=-1)
pad = (self.k - 1) // 2
x_pad = tf.pad(x, [[0, 0], [pad, pad], [pad, pad], [0, 0]])
patches = tf.image.extract_patches(
images=x_pad,
sizes=[1, self.k, self.k, 1],
strides=[1, 1, 1, 1],
rates=[1, 1, 1, 1],
padding='VALID'
)
patches = tf.reshape(patches, [B, H, W, self.k * self.k, C])
kernels_exp = tf.expand_dims(kernels, axis=-1)
return tf.reduce_sum(patches * kernels_exp, axis=3)
def build_dynamic_model(input_shape=(28, 28, 1), num_classes=26):
inputs = layers.Input(shape=input_shape)
# 일반 Conv로 기초 특징 추출
x = layers.Conv2D(32, (3, 3), activation='relu', padding='same')(inputs)
x = layers.BatchNormalization()(x)
# Dynamic Convolution 적용
x = DynamicConv2D(k=3)(x)
x = layers.Activation('relu')(x)
x = layers.MaxPooling2D((2, 2))(x)
x = layers.Conv2D(64, (3, 3), activation='relu', padding='same')(x)
x = DynamicConv2D(k=3)(x)
x = layers.Activation('relu')(x)
x = layers.GlobalAveragePooling2D()(x)
x = layers.Dense(128, activation='relu')(x)
outputs = layers.Dense(num_classes, activation='softmax')(x)
return models.Model(inputs, outputs)
# 2. 모델 로드 (파일 경로 확인 필요)
model = build_dynamic_model()
# 파일 경로를 절대 경로로 설정
weights_path = 'dynamic_conv_alphabet.weights.h5'
if os.path.exists(weights_path):
model.load_weights(weights_path)
print(f"가중치 로드 성공: {weights_path}")
else:
print(f"오류: {weights_path} 파일을 찾을 수 없습니다. 먼저 학습을 수행하세요.")
# 3. 예측 함수 정의
def classify_alphabet(sketchpad):
if sketchpad is None:
return "글씨를 써주세요."
# 3-1. 이미지 데이터 추출 (Gradio의 Sketchpad는 dict 형태일 수 있음)
# 배경은 검은색(0), 글씨는 흰색(255)인 그레이스케일로 변환
img = sketchpad["composite"][:, :, 3] # Alpha 채널 사용
# 3-2. 전처리 (EMNIST 특유의 회전/반전 해결)
img = tf.convert_to_tensor(img, dtype=tf.float32)
img = tf.image.resize(tf.expand_dims(img, axis=-1), (28, 28))
# 중요: EMNIST는 이미지가 전치(transpose)되어 있음
# 사용자가 똑바로 쓴 글씨를 모델이 학습한 방향으로 돌려줍니다.
img = tf.image.transpose(img)
img = img / 255.0 # 정규화
img = tf.expand_dims(img, axis=0) # (1, 28, 28, 1)
# 3-3. 추론
preds = model.predict(img, verbose=0)[0]
# 결과 생성 (A-Z)
results = {}
for i in range(26):
char = chr(ord('A') + i)
results[char] = float(preds[i])
return results
# 4. Gradio 인터페이스 구성
interface = gr.Interface(
fn=classify_alphabet,
inputs=gr.Sketchpad(label="알파벳을 그려보세요 (A-Z)", type="numpy"),
outputs=gr.Label(num_top_classes=3, label="예측 결과"),
title="Dynamic Conv Alphabet Recognizer",
description="2D Dynamic Convolution 레이어를 사용한 알파벳 인식기입니다.",
live=True # 실시간 인식 활성화
)
if __name__ == "__main__":
interface.launch()