code
stringlengths
17
6.64M
def dtype_bb_to_numpy(dtype): if (dtype == core.TYPE_FP32): return np.float32 elif (dtype == core.TYPE_FP64): return np.float64 elif (dtype == core.TYPE_INT8): return np.int8 elif (dtype == core.TYPE_INT16): return np.int16 elif (dtype == core.TYPE_INT32): return np.int32 elif (dtype == core.TYPE_INT64): return np.int64 elif (dtype == core.TYPE_UINT8): return np.uint8 elif (dtype == core.TYPE_UINT16): return np.uint16 elif (dtype == core.TYPE_UINT32): return np.uint32 elif (dtype == core.TYPE_UINT64): return np.uint64 return None
def dtype_to_name(dtype): if (dtype == core.TYPE_BIT): return 'bit' elif (dtype == core.TYPE_FP32): return 'fp32' elif (dtype == core.TYPE_FP64): return 'fp64' elif (dtype == core.TYPE_INT8): return 'int8' elif (dtype == core.TYPE_INT16): return 'int16' elif (dtype == core.TYPE_INT32): return 'int32' elif (dtype == core.TYPE_INT64): return 'int64' elif (dtype == core.TYPE_UINT8): return 'uint8' elif (dtype == core.TYPE_UINT16): return 'uint16' elif (dtype == core.TYPE_UINT32): return 'uint32' elif (dtype == core.TYPE_UINT64): return 'uint64' return None
def dtype_from_name(name): if (name == 'bit'): return core.TYPE_BIT elif (name == 'fp32'): return core.TYPE_FP32 elif (name == 'fp64'): return core.TYPE_FP64 elif (name == 'int8'): return core.TYPE_INT8 elif (name == 'int16'): return core.TYPE_INT16 elif (name == 'int32'): return core.TYPE_INT32 elif (name == 'int64'): return core.TYPE_INT64 elif (name == 'uint8'): return core.TYPE_UINT8 elif (name == 'uint16'): return core.TYPE_UINT16 elif (name == 'uint32'): return core.TYPE_UINT32 elif (name == 'uint64'): return core.TYPE_UINT64 return None
class FrameBuffer(bb.Object): 'FrameBuffer class\n \n BinaryBrainでの学習データを格納する特別な型である\n バッチと対応する 1次元のframe項と、各レイヤーの入出力ノードに対応する\n 多次元のnode項を有している\n numpy の ndarray に変換する際は axis=0 が frame 項となり、以降が\n node項となる\n\n Tensor と異なり、frame 項に対して reshape を行うことはできず、\n node 項に対しても transpose することはできない。\n\n node に関しては 2次元以上の shape も持ちうるが、実際のレイヤー間接続に\n 際しては、畳み込みなどの次元に意味を持つノード以外では、ノード数さえ\n あっていれば接続できるものが殆どである(多くの処理系で必要とする\n flatten が省略できる)。\n\n host_only フラグを指定すると device(GPU側) が利用可能であっても\n host(CPU側) のみにメモリを確保する\n\n Args:\n frame_size (int): frame サイズ\n shape (list[int]): node シェイプ\n dtype (int): Data type\n host_only (bool): flag of host only\n ' def __init__(self, frame_size: int=0, shape: List[int]=[], dtype=bb.DType.FP32, host_only: bool=False, core_buf=None): if (core_buf is None): core_buf = core.FrameBuffer(frame_size, shape, dtype.value, host_only) super(FrameBuffer, self).__init__(core_object=core_buf) @staticmethod def zeros(frame_size: int=0, node_shape: List[int]=[], dtype=bb.DType.FP32, host_only: bool=False): buf = FrameBuffer(frame_size=frame_size, shape=node_shape, dtype=dtype, host_only=host_only) buf.fill_zero() return buf @staticmethod def zeros_like(buf, *, frame_size: int=None, node_shape: List[int]=None, dtype=None, host_only: bool=None): if (frame_size is None): frame_size = buf.get_frame_size() if (node_shape is None): node_shape = buf.get_node_shape() if (dtype is None): dtype = buf.get_type() if (host_only is None): host_only = buf.is_host_only() return FrameBuffer.zeros(frame_size=frame_size, node_shape=node_shape, dtype=dtype, host_only=host_only) @staticmethod def from_core(core_buf): return FrameBuffer(core_buf=core_buf) def is_host_only(self) -> bool: return self.get_core().is_host_only() def astype(self, dtype): return FrameBuffer(core_buf=self.get_core().astype(dtype)) def get_type(self) -> int: 'データ型取得\n \n Returns:\n dtype (DType)\n ' return bb.DType(self.get_core().get_type()) def get_frame_size(self) -> int: 'get size of frame.\n \n Returns:\n frame size.\n ' return self.get_core().get_frame_size() def get_frame_stride(self) -> int: 'get stride of frame.\n \n Returns:\n frame stride.\n ' return self.get_core().get_frame_stride() def get_node_size(self) -> int: 'get size of node.\n \n Returns:\n node size.\n ' return self.get_core().get_node_size() def get_node_shape(self) -> List[int]: 'get shape of node.\n \n Returns:\n shape\n ' return self.get_core().get_node_shape() def numpy(self) -> np.ndarray: 'Convert to NumPy\n \n Args:\n shape (list[int]): Shape of created array\n dtype (int): Data type\n host_only (bool): flag of host only\n ' dtype = self.get_type() if (dtype == bb.DType.BIT): ndarray = self.get_core().numpy_uint8() elif (dtype == bb.DType.BINARY): ndarray = self.get_core().numpy_uint8() elif (dtype == bb.DType.FP32): ndarray = self.get_core().numpy_fp32() elif (dtype == bb.DType.FP64): ndarray = self.get_core().numpy_fp64() elif (dtype == bb.DType.INT8): ndarray = self.get_core().numpy_int8() elif (dtype == bb.DType.INT16): ndarray = self.get_core().numpy_int16() elif (dtype == bb.DType.INT32): ndarray = self.get_core().numpy_int32() elif (dtype == bb.DType.INT64): ndarray = self.get_core().numpy_int64() elif (dtype == bb.DType.UINT8): ndarray = self.get_core().numpy_uint8() elif (dtype == bb.DType.UINT16): ndarray = self.get_core().numpy_uint16() elif (dtype == bb.DType.UINT32): ndarray = self.get_core().numpy_uint32() elif (dtype == bb.DType.UINT64): ndarray = self.get_core().numpy_uint64() else: raise TypeError('unexpected dtype') tran = ([(ndarray.ndim - 1)] + list(range(0, (ndarray.ndim - 1)))) ndarray = ndarray.transpose(tran) if (dtype != bb.DType.BIT): shape = list(ndarray.shape) shape[0] = self.get_core().get_frame_size() ndarray = np.resize(ndarray, shape) return ndarray @staticmethod def from_numpy(ndarray: np.ndarray, host_only=False): 'Create from NumPy\n \n Args:\n ndarray (np.ndarray): array of NumPy\n host_only (bool): flag of host only\n ' shape = list(ndarray.shape) assert (len(shape) >= 2) bb_dtype = bb.dtype_numpy_to_bb(ndarray.dtype) frame_size = shape[0] frame_stride = core.FrameBuffer.calc_frame_stride(bb_dtype, frame_size) shape[0] = (frame_stride // core.dtype_get_byte_size(bb_dtype)) ndarray = np.resize(ndarray, shape) tran = (list(range(1, ndarray.ndim)) + [0]) ndarray = ndarray.transpose(tran) ndarray = ndarray.copy(order='C') if (ndarray.dtype == np.float32): core_buf = bb.core.FrameBuffer.from_numpy_fp32(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.float64): core_buf = bb.core.FrameBuffer.from_numpy_fp64(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.int8): core_buf = bb.core.FrameBuffer.from_numpy_int8(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.int16): core_buf = bb.core.FrameBuffer.from_numpy_int16(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.int32): core_buf = bb.core.FrameBuffer.from_numpy_int32(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.int64): core_buf = bb.core.FrameBuffer.from_numpy_int64(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.uint8): core_buf = bb.core.FrameBuffer.from_numpy_uint8(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.uint16): core_buf = bb.core.FrameBuffer.from_numpy_uint16(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.uint32): core_buf = bb.core.FrameBuffer.from_numpy_uint32(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) elif (ndarray.dtype == np.uint64): core_buf = bb.core.FrameBuffer.from_numpy_uint64(ndarray, bb_dtype, frame_size, frame_stride, shape[1:], host_only) else: core_buf = None raise TypeError('unsupported') return FrameBuffer(core_buf=core_buf) def fill_zero(self): self.get_core().fill_zero() def fill(self, x): self.get_core().fill(x) def isnan(self): return self.get_core().isnan() def min(self): return self.get_core().min() def max(self): return self.get_core().max() def quantize(self, bits, scale=0.0, offset=0): return self.get_core().quantize(bits, scale, offset) def __add__(self, x): if (type(x) == FrameBuffer): core_buf = (self.get_core() + x.get_core()) else: core_buf = (self.get_core() + float(x)) return FrameBuffer(core_buf=core_buf) def __sub__(self, x): if (type(x) == FrameBuffer): core_buf = (self.get_core() - x.get_core()) else: core_buf = (self.get_core() - float(x)) return FrameBuffer(core_buf=core_buf) def __mul__(self, x): if (type(x) == FrameBuffer): core_buf = (self.get_core() * x.get_core()) else: core_buf = (self.get_core() * float(x)) return FrameBuffer(core_buf=core_buf) def __truediv__(self, x): if (type(x) == FrameBuffer): core_buf = (self.get_core() / x.get_core()) else: core_buf = (self.get_core() / float(x)) return FrameBuffer(core_buf=core_buf) def __radd__(self, x): if (type(x) == FrameBuffer): core_buf = (x.get_core() + self.get_core()) else: core_buf = (float(x) + self.get_core()) return FrameBuffer(core_buf=core_buf) def __rsub__(self, x): if (type(x) == FrameBuffer): core_buf = (x.get_core() - self.get_core()) else: core_buf = (float(x) - self.get_core()) return FrameBuffer(core_buf=core_buf) def __rmul__(self, x): if (type(x) == FrameBuffer): core_buf = (x.get_core() * self.get_core()) else: core_buf = (float(x) * self.get_core()) return FrameBuffer(core_buf=core_buf) def __rtruediv__(self, x): if (type(x) == FrameBuffer): core_buf = (x.get_core() / self.get_core()) else: core_buf = (float(x) / self.get_core()) return FrameBuffer(core_buf=core_buf) def __iadd__(self, x): core_buf = self.get_core() if (type(x) == FrameBuffer): core_buf += x.get_core() else: core_buf += float(x) return self def __isub__(self, x): core_buf = self.get_core() if (type(x) == FrameBuffer): core_buf -= x.get_core() else: core_buf -= float(x) return self def __imul__(self, x): core_buf = self.get_core() if (type(x) == FrameBuffer): core_buf *= x.get_core() else: core_buf *= float(x) return self def __itruediv__(self, x): core_buf = self.get_core() if (type(x) == FrameBuffer): core_buf /= x.get_core() else: core_buf /= float(x) return self @classmethod def from_bytes(cls, data): new_buffer = cls() data = new_buffer.loads(data) return (data, new_buffer)
def framebuffer_creator(data, name, dtypes): if (name == 'FrameBuffer'): return FrameBuffer.from_bytes(data) return (data, None)
def make_lut_func_name(name, node): return ('%s_lut_%d' % (name, node))
def dump_hls_lut_node(f, name, lut, node): f.write(('\ninline ap_uint<1> %s(\n' % make_lut_func_name(name, node))) n = lut.get_node_connection_size(node) s = lut.get_lut_table_size(node) for i in range(n): f.write((' ap_uint<1> in_data%d' % i)) if (i < (n - 1)): f.write(',\n') else: f.write(')\n') f.write('{\n') f.write(' #pragma HLS inline\n\n') f.write((' ap_uint<%d> index;\n' % n)) for i in range(n): f.write((' index[%d] = in_data%d;\n' % (i, i))) f.write(' \n') f.write((' const ap_uint<1> table[%d] = {' % s)) for i in range(s): f.write(('%d,' % lut.get_lut_table(node, i))) f.write('};\n') f.write(' #pragma HLS bind_storage variable=table type=ROM_1P impl=LUTRAM\n') f.write(' return table[index];\n') f.write('}\n\n')
def dump_hls_lut_layer(f, name, lut): ' dump HLS source of LUT layer\n \n Args:\n f (StreamIO) : 出力先ストリーム\n name (str): 関数名\n lut (Model): 変換するネット\n ' ins = lut.get_input_node_size() outs = lut.get_output_node_size() for node in range(outs): dump_hls_lut_node(f, name, lut, node) f.write('\n') f.write(('inline ap_uint<%d> %s(ap_uint<%d> in_data)\n' % (outs, name, ins))) f.write('{\n') f.write((' ap_uint<%d> out_data;\n' % outs)) for node in range(outs): f.write((' out_data[%d] = %s(' % (node, make_lut_func_name(name, node)))) n = lut.get_node_connection_size(node) for i in range(n): f.write(('in_data[%d]' % lut.get_node_connection_index(node, i))) if (i < (n - 1)): f.write(',') else: f.write(');\n') f.write(' return out_data;\n') f.write('}\n\n')
def make_hls_lut_layer(name, lut): ' make HLS source of LUT layer\n \n Args:\n name (str): 関数名\n lut (Model): 変換するネット\n \n Returns:\n HLS source code (str)\n ' with io.StringIO() as f: dump_hls_lut_layer(f, name, lut) return f.getvalue()
class LossFunction(bb.Object): 'LossFunction class\n 損失関数の基底クラス\n ' def __init__(self, core_loss=None): super(LossFunction, self).__init__(core_object=core_loss) def clear(self): '値のクリア\n\n 集計をクリアする。通常 epoch の単位でクリアして再集計を行う\n ' self.get_core().clear() def get(self): '値の取得\n\n Returns:\n loss(float) : 現在までの損失値を返す\n ' return self.get_core().get_loss() def calculate(self, y_buf, t_buf, mini_batch_size=None): '損失の計算\n\n mini_batch_size はメモリなどの都合でミニバッチをさらに分割する場合などに用いる。通常はNoneでよい。\n\n Args:\n y_buf (FrameBuffer): forward演算結果\n t_buf (FrameBuffer): 教師データ\n mini_batch_size (int): ミニバッチサイズ\n\n Returns:\n dy_buf (FrameBuffer) : 逆伝搬させる誤差を返す\n ' if (mini_batch_size is None): mini_batch_size = t_buf.get_frame_size() return bb.FrameBuffer.from_core(self.get_core().calculate_loss(y_buf.get_core(), t_buf.get_core(), mini_batch_size))
class LossMeanSquaredError(LossFunction): 'LossMeanSquaredError class\n\n 平均二乗誤差(MSE)を計算して誤差として戻す\n ' def __init__(self, reduction='mean', dtype=bb.DType.FP32): core_loss = bb.search_core_object('LossMeanSquaredError', [dtype]).create(reduction=reduction) super(LossMeanSquaredError, self).__init__(core_loss=core_loss)
class LossCrossEntropy(LossFunction): 'LossCrossEntropy class\n\n 交差エントロピー誤差を戻す\n ' def __init__(self, dtype=bb.DType.FP32): core_loss = bb.search_core_object('LossCrossEntropy', [dtype]).create() super(LossCrossEntropy, self).__init__(core_loss=core_loss)
class LossBinaryCrossEntropy(LossFunction): 'LossBinaryCrossEntropy class\n \n 2値の交差エントロピー誤差を戻す\n ' def __init__(self, dtype=bb.DType.FP32): core_loss = bb.search_core_object('LossBinaryCrossEntropy', [dtype]).create() super(LossBinaryCrossEntropy, self).__init__(core_loss=core_loss)
class LossSoftmaxCrossEntropy(LossFunction): 'LossSoftmaxCrossEntropy class\n\n Softmax(活性化) と CrossEntropy(損失関数) の複合\n 両者を統合すると計算が簡略化される。\n \n 利用に際しては最終段に Softmax が挿入されたのと等価になるので注意すること。\n ' def __init__(self, dtype=bb.DType.FP32): core_loss = bb.search_core_object('LossSoftmaxCrossEntropy', [dtype]).create() super(LossSoftmaxCrossEntropy, self).__init__(core_loss=core_loss)
class LossSigmoidCrossEntropy(LossFunction): 'LossSigmoidCrossEntropy class\n\n Sigmoid(活性化) と BinaryCrossEntropy(損失関数) の複合\n 両者を統合すると計算が簡略化される。\n \n 利用に際しては最終段に Sigmoid が挿入されたのと等価になるので注意すること。\n ' def __init__(self, dtype=bb.DType.FP32): core_loss = bb.search_core_object('LossSigmoidCrossEntropy', [dtype]).create() super(LossSigmoidCrossEntropy, self).__init__(core_loss=core_loss)
class Metrics(bb.Object): 'Metrics class\n 評価関数の基底クラス\n ' def __init__(self, core_metrics=None): super(Metrics, self).__init__(core_object=core_metrics) def clear(self): '値のクリア\n\n 集計をクリアする。通常 epoch の単位でクリアして再集計を行う\n ' self.get_core().clear() def get(self): '値の取得\n\n Returns:\n metrics(float) : 現在までの損失値を返す\n ' return self.get_core().get_metrics() def calculate(self, y_buf, t_buf): '評価の計算\n\n Args:\n y_buf (FrameBuffer): forward演算結果\n t_buf (FrameBuffer): 教師データ\n ' return self.get_core().calculate_metrics(y_buf.get_core(), t_buf.get_core()) def get_metrics_string(self): '評価対象の文字列取得\n\n 評価関数ごとに評価値の単位が異なるため計算しているものの文字列を返す\n 平均二乗誤差(MSE)であったり、認識率(accuracy)であったり\n getで得られる値を、表示やログで表す際に利用できる\n\n Args:\n metrics_string (str): 評価対象の文字列取得\n ' return self.get_core().get_metrics_string()
class MetricsMeanSquaredError(Metrics): 'MetricsMeanSquaredError class\n\n 平均二乗誤差の評価関数\n 教師信号との平均二乗誤差を計算する\n ' def __init__(self, dtype=bb.DType.FP32): core_metrics = bb.search_core_object('MetricsMeanSquaredError', [dtype]).create() super(MetricsMeanSquaredError, self).__init__(core_metrics=core_metrics)
class MetricsCategoricalAccuracy(Metrics): 'MetricsCategoricalAccuracy class\n\n 多クラス分類用の評価関数\n 一致率を accuracy として計算する\n ' def __init__(self, dtype=bb.DType.FP32): core_metrics = bb.search_core_object('MetricsCategoricalAccuracy', [dtype]).create() super(MetricsCategoricalAccuracy, self).__init__(core_metrics=core_metrics)
class MetricsBinaryCategoricalAccuracy(Metrics): 'MetricsBinaryCategoricalAccuracy class\n\n 2クラス分類用の評価関数\n 一致率を accuracy として計算する\n ' def __init__(self, dtype=bb.DType.FP32): core_metrics = bb.search_core_object('MetricsBinaryCategoricalAccuracy', [dtype]).create() super(MetricsBinaryCategoricalAccuracy, self).__init__(core_metrics=core_metrics)
def search_core_model(model_name, dtypes=None): if (dtypes is None): dtypes = [] return bb.search_core_object(model_name, dtypes)
def model_creator_regist(model_name, creator): _model_creator_list[model_name] = creator
def model_creator(data, name, dtypes): if (name in _model_creator_list): return _model_creator_list[name](data) return (data, None)
class Model(bb.Object): 'Model class\n ネットワーク各層の演算モデルの基底クラス\n すべてのモデルはこのクラスを基本クラスに持つ\n\n BinaryBrain では、モデルを実際にインスタンスとして生成して組み合わせることで\n 学習ネットワークを構成する。特にネットワーク内のインスタンス化された\n モデルをレイヤーという呼び方をする場合がある。\n ' def __init__(self, *, core_model=None, input_shape=None, name=None): super(Model, self).__init__(core_object=core_model) self.input_shape = input_shape self.name = name if (core_model is not None): if (name is not None): self.set_name(name) if (input_shape is not None): self.set_input_shape(input_shape) @classmethod def from_bytes(cls, data): (data, core_model) = bb.core_object_loads(data) return (data, cls(core_model=core_model)) def set_name(self, name: str): 'インスタンス名の設定\n\n 生成したモデルには任意の名前を付けることが可能であり、表示や\n 保存時のファイル名などに利用することが可能である\n\n Args:\n name (str): 新しいインスタンス名\n ' self.name = name core_model = self.get_core() if (core_model is not None): core_model.set_name(name) def get_name(self): 'インスタンス名の取得\n\n インスタンス名を取得する。名称が設定されていない場合はクラス名が返される\n\n Returns:\n name (str)\n ' core_model = self.get_core() if (core_model is not None): return core_model.get_name() elif self.name: return self.name else: return self.get_model_name() def is_named(self): 'インスタンス名の設定確認\n\n インスタンス名が設定されているかどうか確認する\n\n Returns:\n named (bool)\n ' core_model = self.get_core() if (core_model is not None): return core_model.is_named() else: return (self.name is not None) def get_model_name(self): 'モデル名の取得\n\n モデル名を取得する。\n\n Returns:\n model name (str)\n ' core_model = self.get_core() if (core_model is not None): return core_model.get_model_name() else: return self.__class__.__name__ def get_info(self, depth: int=0, *, columns: int=70, nest: int=0) -> str: 'モデル情報取得\n\n モデルの情報表示用の文字列を取得する\n そのまま表示やログに利用することを想定している\n\n Returns:\n info (str)\n ' core_model = self.get_core() if (core_model is not None): return core_model.get_info(depth, columns, nest) indent = (' ' * (nest * 2)) separetor = ('-' * (columns - len(indent))) name = self.name if (name is None): name = '' text = ((indent + separetor) + '\n') text += (((((indent + '[') + self.get_model_name()) + '] ') + name) + '\n') text += ((indent + ' input shape : ') + str(self.get_input_shape())) text += (((indent + ' output shape : ') + str(self.get_output_shape())) + '\n') if (nest == 0): text += ((indent + separetor) + '\n') return text def print_info(self, depth: int=0): 'モデル情報表示\n\n モデルの情報を表示する\n ' print(self.get_info(depth=depth)) def send_command(self, command, send_to='all'): "コマンドの送信\n\n モデルごとにコマンド文字列で設定を行う\n コマンド文字列の定義はモデルごとに自由である\n Sequentialクラスなどは、保有する下位のモデルに再帰的にコマンドを\n 伝搬させるので、複数の層に一括した設定が可能である\n 受取先は send_to で送り先はインスタンス名やクラス名で制限でき 'all' を指定すると\n フィルタリングされない\n\n Args:\n command (str): コマンド文字列\n send_to (str): 送信先\n " core_model = self.get_core() if (core_model is not None): self.get_core().send_command(command, send_to) def set_input_shape(self, input_shape): '入力シェイプ設定\n\n BinaryBarainではモデル生成時に入力のシェイプを決定する必要はなく\n ネットワーク構築後に、ネットワークを構成する各モデルの\n set_input_shape を順に呼び出して形状を伝搬させることで\n 各モデルの形状の設定を簡易化できる\n\n set_input_shape が呼ばれるとそれまでの各層で保有する情報は\n 保証されない。ネットワーク構築後に一度だけ呼び出すことを想定している\n \n Args:\n input_shape (List[int]): 入力シェイプ\n\n Returns:\n output_shape (List[int]): 出力シェイプ\n ' if ((type(input_shape) == list) and (len(input_shape) > 0) and (type(input_shape[0]) == list)): output_shapes = self.set_input_shape_multi(input_shape) if (len(output_shapes) == 1): return output_shapes[0] return output_shapes self.input_shape = input_shape core_model = self.get_core() if (core_model is not None): output_shape = self.get_core().set_input_shape(input_shape) return output_shape return self.input_shape def set_input_shape_multi(self, input_shapes: List[List[int]]): self.input_shape = input_shapes core_model = self.get_core() if (core_model is not None): output_shapes = self.get_core().set_input_shape_multi(input_shapes) return output_shapes return self.input_shape def get_input_shape(self) -> List[int]: '入力シェイプ取得\n\n Returns:\n input_shape (List[int]): 入力シェイプ\n ' core_model = self.get_core() if (core_model is not None): return core_model.get_input_shape() return self.input_shape def get_output_shape(self) -> List[int]: '出力シェイプ取得\n\n Returns:\n output_shape (List[int]): 出力シェイプ\n ' core_model = self.get_core() if (core_model is not None): return core_model.get_output_shape() return self.input_shape def get_input_node_size(self) -> int: core_model = self.get_core() if (core_model is not None): return core_model.get_input_node_size() shape = self.get_input_shape() size = 1 for s in shape: size *= s return size def get_output_node_size(self) -> int: core_model = self.get_core() if (core_model is not None): return core_model.get_output_node_size() return self.get_input_node_size() def get_parameters(self): 'パラメータ変数取得\n\n 学習対象とするパラメータ群を Variables として返す\n 主に最適化(Optimizer)に渡すことを目的としている\n\n モデル側を自作する際には、このメソッドで戻す変数の中に\n 含めなかったパラメータは学習対象から外すことができる為\n パラメータを凍結したい場合などに利用できる\n\n Returns:\n parameters (Variables): パラメータ変数\n ' core_model = self.get_core() if (core_model is not None): return bb.Variables.from_core(core_model.get_parameters()) return bb.Variables() def get_gradients(self): '勾配変数取得\n\n get_parameters と対になる勾配変数を Variables として返す\n 主に最適化(Optimizer)に渡すことを目的としている\n\n Returns:\n gradients (Variables): 勾配変数\n ' core_model = self.get_core() if (core_model is not None): return bb.Variables.from_core(core_model.get_gradients()) return bb.Variables() def forward(self, x_buf, train=True): 'Forward\n\n モデルは学習および推論の為に forward メソッドを持つ\n train 変数を\n \n Args:\n x_buf (FrameBuffer): 入力データ\n train (bool) : Trueで学習、Falseで推論\n\n Returns:\n y_buf (FrameBuffer): 出力データ\n ' if (type(x_buf) == list): y_bufs = self.forward_multi(x_buf) if (len(y_bufs) == 1): return y_bufs[0] return y_bufs core_model = self.get_core() if (core_model is not None): return bb.FrameBuffer.from_core(core_model.forward(x_buf.get_core(), train)) return x_buf def forward_multi(self, x_bufs, train=True): core_model = self.get_core() if (core_model is not None): core_x_bufs = [] for x_buf in x_bufs: core_x_bufs.append(x_buf.get_core()) core_y_bufs = core_model.forward_multi(core_x_bufs, train) y_bufs = [] for core_y_buf in core_y_bufs: y_bufs.append(bb.FrameBuffer.from_core(core_y_buf)) return y_bufs return x_bufs def backward(self, dy_buf): 'Backward\n\n モデルは学習の為に backword メソッドを持つ\n 必ず forwad と対で呼び出す必要があり、直前の forward 結果に対する\n 勾配計算を行いながら逆伝搬する\n\n BinaryBrain は自動微分の機能を備えないので、backword の実装は必須である\n \n Args:\n dy_buf (FrameBuffer): 入力データ\n\n Returns:\n dx_buf (FrameBuffer): 出力データ\n ' if (type(dy_buf) == list): dx_bufs = self.backward_multi(dy_buf) if (len(dx_bufs) == 1): return dx_bufs[0] return dx_bufs core_model = self.get_core() if (core_model is not None): return bb.FrameBuffer.from_core(core_model.backward(dy_buf.get_core())) return dy_buf def backward_multi(self, dy_bufs): core_model = self.get_core() if (core_model is None): return dy_bufs if (type(dy_bufs) != list): dy_bufs = [dy_bufs] core_dy_bufs = [] for dy_buf in dy_bufs: core_dy_bufs.append(dy_buf.get_core()) core_dx_bufs = core_model.backward_multi(core_dy_bufs) dx_bufs = [] for core_dx_buf in core_dx_bufs: dx_bufs.append(bb.FrameBuffer.from_core(core_dx_buf)) return dx_bufs def clear(self): core_model = self.get_core() if (core_model is not None): core_model.clear() def push(self, x): core_model = self.get_core() if (core_model is not None): core_model.push(x.get_core()) def pop(self): core_model = self.get_core() if (core_model is not None): return bb.FrameBuffer.from_core(core_model.pop()) def top(self): core_model = self.get_core() if (core_model is not None): return bb.FrameBuffer.from_core(core_model.top()) def dump_bytes(self): core_model = self.get_core() if (core_model is not None): return core_model.dump() return b'' def load_bytes(self, data): core_model = self.get_core() if (core_model is not None): size = core_model.load(data) return data[size:] return data def __str__(self): return self.get_info(1) def __repr__(self): return self.get_info(1)
class Sequential(Model): 'Sequential class\n 複数レイヤーを直列に接続してグルーピングするクラス\n\n リストの順番で set_input_shape, forward, backward などを実行する\n また send_command の子レイヤーへのブロードキャストや、\n get_parameters, get_gradients の統合を行うことで複数のレイヤーを\n 1つのレイヤーとして操作できる\n\n Args:\n model_list (List[Model]): モデルのリスト\n ' def __init__(self, model_list=None, *, input_shape=None, name=None): if (model_list is None): model_list = [] self.name = '' self.model_list = model_list super(Sequential, self).__init__(input_shape=input_shape, name=name) def get_core(self): core_model = core.Sequential.create() for model in self.model_list: core_model.add(model.get_core()) if (self.name is not None): core_model.set_name(self.name) return core_model def set_name(self, name): self.name = name def get_name(self): if ((self.name is None) or (len(self.name) == 0)): return self.get_model_name() return self.name def is_named(self): if (self.name is None): return False if (len(self.name) == 0): return False return True def set_model_list(self, model_list): 'モデルリストの設定\n \n Args:\n model_list (List[Model]): モデルのリスト\n ' self.model_list = model_list def get_model_list(self): 'モデルリストの取得\n \n Returns:\n model_list (List[Model]): モデルのリスト\n ' return self.model_list def get_input_shape(self): return self.model_list[0].get_input_shape() def get_output_shape(self): return self.model_list[(- 1)].get_output_shape() def __len__(self): return len(self.model_list) def __iter__(self): return self.model_list.__iter__() def __getitem__(self, item): return self.model_list[item] def __setitem__(self, item, model): self.model_list[item] = model def append(self, model): 'リストへのモデル追加\n \n Args:\n model (Model): リストに追加するモデル\n ' self.model_list.append(model) def remove(self, model): 'リストへからモデル削除\n \n Args:\n model (Model): リストから削除するモデル\n ' self.model_list.remove(model) def get_info(self, depth=0, *, columns=70, nest=0): if ((depth > 0) and ((nest + 1) >= depth)): return super(Sequential, self).get_info(depth=depth, columns=columns, nest=nest) else: indent = (' ' * (nest * 2)) separetor = ('-' * (columns - len(indent))) name = self.name if (name is None): name = '' text = ((indent + separetor) + '\n') text += (((((indent + '[') + self.get_model_name()) + '] ') + name) + '\n') text += ((indent + ' input shape : ') + str(self.get_input_shape())) text += (((indent + ' output shape : ') + str(self.get_output_shape())) + '\n') for model in self.model_list: text += model.get_info(depth=depth, columns=columns, nest=(nest + 1)) if (nest == 0): text += ((indent + separetor) + '\n') return text def send_command(self, command, send_to='all'): for model in self.model_list: model.send_command(command=command, send_to=send_to) def set_input_shape(self, shape): self.input_shape = shape for model in self.model_list: shape = model.set_input_shape(shape) return shape def get_parameters(self): variables = bb.Variables() for model in self.model_list: variables.append(model.get_parameters()) return variables def get_gradients(self): variables = bb.Variables() for model in self.model_list: variables.append(model.get_gradients()) return variables def forward(self, x_buf, train=True): for model in self.model_list: x_buf = model.forward(x_buf, train) return x_buf def backward(self, dy_buf): for model in reversed(self.model_list): dy_buf = model.backward(dy_buf) return dy_buf def clear(self): for model in self.model_list: model.clear() def dumps(self): data = bb.dump_object_header('Sequential') ver = 2 data += bb.int_to_bytes(ver) name = self.name if (name is None): name = '' data += bb.string_to_bytes(name) layer_size = len(self.model_list) data += bb.int_to_bytes(layer_size) for model in self.model_list: data += model.dumps() return data def loads(self, data): (data, name) = bb.load_object_header(data) assert (name == 'Sequential') (data, ver) = bb.int_from_bytes(data) assert ((ver == 1) or (ver == 2)) if (ver == 2): (data, name) = bb.string_from_bytes(data) if (not self.is_named()): self.name = name (data, layer_size) = bb.int_from_bytes(data) if (self.model_list is not None): assert (layer_size == len(self.model_list)) for model in self.model_list: data = model.loads(data) else: self.model_list = [] for _ in range(layer_size): (data, model) = bb.object_loads(data) self.model_list.append(model) return data @classmethod def from_bytes(cls, data): new_model = cls() new_model.model_list = None data = new_model.loads(data) return (data, new_model)
class Switcher(Model): "モデル切り替え用基底クラス\n \n 主に蒸留や転移学習などでレイヤー差し替えに用いる\n send_command から 'switch_model [name]' でも切り替え可能\n\n Args:\n model_dict (Dict{str: Model}): 切り替えるモデルの辞書\n init_model_name (str): 初期選択するモデルの名前\n " def __init__(self, model_dict=None, init_model_name=None, *, input_shape=None, name=None): if (model_dict is None): model_dict = {} self.model_dict = model_dict self.current_model_name = None self.current_model = None super(Switcher, self).__init__(input_shape=input_shape, name=name) self.switch_model(init_model_name) def switch_model(self, model_name: str): 'モデルを切り替える\n \n Args:\n model_dict (Dict{str: Model}): 切り替えるモデルの辞書\n ' if ((self.model_dict is not None) and (model_name is not None)): if (model_name in self.model_dict): self.current_model_name = model_name self.current_model = self.model_dict[model_name] def __getitem__(self, key): return self.model_dict[key] def __setitem__(self, key, value): self.model_dict[key] = value def get_model_list(self): return self.model_dict.values() def get_current_model(self): return self.current_model def get_current_model_name(self): return self.current_model_name def get_core(self): current_model = self.get_current_model() if (current_model is not None): return current_model.get_core() return None def get_info(self, depth: int=0, *, columns: int=70, nest: int=0) -> str: current_model = self.get_current_model() if (current_model is not None): return current_model.get_info(depth=depth, columns=columns, nest=nest) return '' def send_command(self, command, send_to='all'): if ((send_to == 'all') or (send_to == self.get_name()) or (send_to == self.get_model_name())): args = command.split() if ((len(args) == 2) and (args[0] == 'switch_model')): self.switch_model(args[1]) current_model = self.get_current_model() if (current_model is not None): return current_model.send_command(command=command, send_to=send_to) def set_input_shape(self, input_shape: List[int]): output_shape = None for name in self.model_dict: shape = self.model_dict[name].set_input_shape(input_shape) assert ((output_shape is None) or (shape == output_shape)) output_shape = shape return output_shape def get_input_shape(self) -> List[int]: return self.get_current_model().get_input_shape() def get_output_shape(self) -> List[int]: return self.get_current_model().get_output_shape() def get_input_node_size(self) -> int: return self.get_current_model().get_input_node_size() def get_output_node_size(self) -> int: return self.get_current_model().get_output_node_size() def get_parameters(self): return self.get_current_model().get_parameters() def get_gradients(self): return self.get_current_model().get_gradients() def forward(self, x_buf, train=True): return self.get_current_model().forward(x_buf=x_buf, train=train) def backward(self, dy_buf): return self.get_current_model().backward(dy_buf=dy_buf) def dumps(self): data = b'' data += core.Object.write_header('Switcher') ver = 1 data += bb.int_to_bytes(ver) data += bb.string_to_bytes(self.current_model_name) layer_size = len(self.model_dict) data += bb.int_to_bytes(layer_size) for (name, model) in self.model_dict.items(): data += bb.string_to_bytes(name) data += model.dumps() return data def loads(self, data): (load_size, name) = core.Object.read_header(data) data = data[load_size:] assert (name == 'Switcher') (data, ver) = bb.int_from_bytes(data) assert (ver == 1) (data, model_name) = bb.string_from_bytes(data) (data, layer_size) = bb.int_from_bytes(data) if (self.model_dict is not None): assert (layer_size == len(self.model_dict)) for _ in range(layer_size): (data, name) = bb.string_from_bytes(data) assert (name in self.model_dict) data = self.model_dict[name].loads(data) else: self.model_dict = {} for _ in range(layer_size): (data, name) = bb.string_from_bytes(data) (data, model) = bb.object_loads(data) self.model_dict[name] = model self.switch_model(model_name) return data def dump_bytes(self): bytes_dict = {} for name in self.model_dict: bytes_dict[name] = self.model_dict[name].dump_bytes() return pickle.dumps(bytes_dict) def load_bytes(self, data): bytes_dict = pickle.loads(data) for name in self.model_dict: if (name in bytes_dict): self.model_dict[name].load_bytes(bytes_dict[name]) @classmethod def from_bytes(cls, data): new_model = cls() new_model.model_dict = None data = new_model.loads(data) return (data, new_model)
class RealToBinary(Model): 'RealToBinary class\n 実数値をバイナリ値に変換する。\n バイナリ変調機能も有しており、フレーム方向に変調した場合フレーム数(=ミニバッチサイズ)が\n 増える。\n またここでビットパッキングが可能であり、32フレームのbitをint32に詰め込みメモリ節約可能である\n\n Args:\n frame_modulation_size (int): フレーム方向への変調数(フレーム数が増える)\n depth_modulation_size (int): Depth方向への変調数(チャンネル数が増える)\n framewise (bool): Trueで変調閾値をフレーム単位とする(Falseでピクセル単位)\n bin_dtype (DType): 出力の型を bb.DType.FP32 もしくは bb.DType.BIT で指定可能\n ' def __init__(self, *, input_shape=None, frame_modulation_size=1, depth_modulation_size=1, value_generator=None, framewise=False, input_range_lo=0.0, input_range_hi=1.0, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('RealToBinary', [bin_dtype, real_dtype]).create core_model = core_creator(frame_modulation_size, depth_modulation_size, value_generator, framewise, input_range_lo, input_range_hi) super(RealToBinary, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class BinaryToReal(Model): 'BinaryToReal class\n バイナリ値を実数値に戻す。その際にフレーム方向に変調されたデータを積算して\n 元に戻すことが可能である\n\n Args:\n frame_integration_size (int): フレーム方向の積算サイズ数(フレーム変調の統合)\n depth_integration_size (int): チャンネル方向の積算サイズ(0の時はoutput_shape優先)\n output_shape (List[int]): 出力のシェイプ(指定が無ければ入力と同じshape)\n bin_dtype (DType): 入力の型を bb.DType.FP32 もしくは bb.DType.BIT で指定可能\n ' def __init__(self, *, frame_integration_size=1, depth_integration_size=1, output_shape=None, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('BinaryToReal', [bin_dtype, real_dtype]).create core_model = core_creator(frame_integration_size=frame_integration_size, depth_integration_size=depth_integration_size, output_shape=output_shape) super(BinaryToReal, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class BitEncode(Model): 'BitEncode class\n 実数値をバイナリ表現としてdepth方向に展開する\n\n Args:\n bit_size (int): エンコードするbit数\n ' def __init__(self, bit_size=1, *, output_shape=None, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('BitEncode', [bin_dtype, real_dtype]).create core_model = core_creator(bit_size, output_shape) super(BitEncode, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class InsertBitError(Model): 'InsertBitError class\n ビットエラーを挿入する\n\n Args:\n error_rate (float): エラー率\n ' def __init__(self, error_rate, *, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('InsertBitError', [bin_dtype, real_dtype]).create core_model = core_creator(error_rate) super(InsertBitError, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Reduce(Model): 'Reduce class\n 多重化されている出力を折り返して積和する\n\n Args:\n output_shape ([int]): 出力のシェイプ\n integration_size (int): 積算するサイズ\n ' def __init__(self, output_shape=None, integration_size=0, *, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('Reduce', [bin_dtype, real_dtype]).create core_model = core_creator(output_shape, integration_size) super(Reduce, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class DenseAffine(Model): 'DenseAffine class\n 普通のDenseAffine\n\n Args:\n output_shape (List[int]): 出力のシェイプ\n initialize_std (float) : 重み初期化乱数の標準偏差\n initializer (str): 変数の初期化アルゴリズム選択(default/normal/uniform/He/Xavier)。\n seed (int): 変数初期値などの乱数シード\n ' def __init__(self, output_shape=None, *, input_shape=None, initialize_std=0.01, initializer='', seed=1, name=None, dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('DenseAffine', [dtype]).create core_model = core_creator(output_shape=output_shape, initialize_std=initialize_std, initializer=initializer, seed=seed) super(DenseAffine, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): return bb.Tensor(core_tensor=self.get_core().W()) def b(self): return bb.Tensor(core_tensor=self.get_core().b()) def dW(self): return bb.Tensor(core_tensor=self.get_core().dW()) def db(self): return bb.Tensor(core_tensor=self.get_core().db())
class DenseAffineQuantize(Model): 'DenseAffineQuantize class\n DenseAffine に量子化のサポートを付けたもの\n\n Args:\n output_shape (List[int]): 出力のシェイプ\n initialize_std (float) : 重み初期化乱数の標準偏差\n initializer (str): 変数の初期化アルゴリズム選択(default/normal/uniform/He/Xavier)。\n quantize (bool): 量子化の有効状態の初期値\n weight_bits(int): 重みの量子化bit数 (0で量子化しない)\n output_bits(int): 入力の量子化bit数 (0で量子化しない)\n input_bits(int): 出力の量子化bit数 (0で量子化しない)\n weight_scale(float): 重みの量子化スケール(0でbit数に合わせる)\n output_scale(float): 入力の量子化スケール(0でbit数に合わせる)\n input_scale(float): 出力の量子化スケール(0でbit数に合わせる)\n seed (int): 変数初期値などの乱数シード\n ' def __init__(self, output_shape=None, *, input_shape=None, quantize=True, weight_bits=8, output_bits=16, input_bits=0, weight_scale=(1 / (1 << 8)), output_scale=(1 / (1 << 8)), input_scale=(1 / (1 << 8)), initialize_std=0.01, initializer='', seed=1, name=None, dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('DenseAffineQuantize', [dtype]).create core_model = core_creator(output_shape=output_shape, quantize=quantize, weight_bits=weight_bits, output_bits=output_bits, input_bits=input_bits, weight_scale=weight_scale, output_scale=output_scale, input_scale=input_scale, initialize_std=initialize_std, initializer=initializer, seed=seed) super(DenseAffineQuantize, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): return bb.Tensor(core_tensor=self.get_core().W()) def b(self): return bb.Tensor(core_tensor=self.get_core().b()) def dW(self): return bb.Tensor(core_tensor=self.get_core().dW()) def db(self): return bb.Tensor(core_tensor=self.get_core().db()) def WQ(self): return bb.Tensor(core_tensor=self.get_core().WQ()) def bQ(self): return bb.Tensor(core_tensor=self.get_core().bQ())
class DepthwiseDenseAffine(Model): 'DepthwiseDenseAffine class\n 普通のDepthwiseDenseAffine\n \n Args:\n output_shape (List[int]): 出力のシェイプ\n input_point_size (int): 入力のpoint数\n depth_size (int): depthサイズ\n initialize_std (float) : 重み初期化乱数の標準偏差\n initializer (str): 変数の初期化アルゴリズム選択(default/normal/uniform/He/Xavier)。\n seed (int): 変数初期値などの乱数シード\n ' def __init__(self, output_shape=None, *, input_shape=None, input_point_size=0, depth_size=0, initialize_std=0.01, initializer='', seed=1, name=None, dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('DepthwiseDenseAffine', [dtype]).create core_model = core_creator(output_shape=output_shape, input_point_size=input_point_size, depth_size=depth_size, initialize_std=initialize_std, initializer=initializer, seed=seed) super(DepthwiseDenseAffine, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): return bb.Tensor(core_tensor=self.get_core().W()) def b(self): return bb.Tensor(core_tensor=self.get_core().b()) def dW(self): return bb.Tensor(core_tensor=self.get_core().dW()) def db(self): return bb.Tensor(core_tensor=self.get_core().db())
class DepthwiseDenseAffineQuantize(Model): 'DepthwiseDenseAffineQuantize class\n DepthwiseDenseAffine に量子化のサポートを付けたもの\n\n Args:\n output_shape (List[int]): 出力のシェイプ\n input_point_size (int): 入力のpoint数\n depth_size (int): depthサイズ\n weight_bits(int): 重みの量子化bit数 (0で量子化しない)\n output_bits(int): 入力の量子化bit数 (0で量子化しない)\n input_bits(int): 出力の量子化bit数 (0で量子化しない)\n weight_scale(float): 重みの量子化スケール(0でbit数に合わせる)\n output_scale(float): 入力の量子化スケール(0でbit数に合わせる)\n input_scale(float): 出力の量子化スケール(0でbit数に合わせる)\n initialize_std (float) : 重み初期化乱数の標準偏差\n initializer (str): 変数の初期化アルゴリズム選択(default/normal/uniform/He/Xavier)。\n seed (int): 変数初期値などの乱数シード\n ' def __init__(self, output_shape=None, *, input_shape=None, input_point_size=0, depth_size=0, quantize=True, weight_bits=8, output_bits=16, input_bits=0, weight_scale=(1 / (1 << 8)), output_scale=(1 / (1 << 8)), input_scale=(1 / (1 << 8)), initialize_std=0.01, initializer='', seed=1, name=None, dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('DepthwiseDenseAffineQuantize', [dtype]).create core_model = core_creator(output_shape=output_shape, input_point_size=input_point_size, depth_size=depth_size, quantize=quantize, weight_bits=weight_bits, output_bits=output_bits, input_bits=input_bits, weight_scale=weight_scale, output_scale=output_scale, input_scale=input_scale, initialize_std=initialize_std, initializer=initializer, seed=seed) super(DepthwiseDenseAffineQuantize, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): return bb.Tensor(core_tensor=self.get_core().W()) def b(self): return bb.Tensor(core_tensor=self.get_core().b()) def dW(self): return bb.Tensor(core_tensor=self.get_core().dW()) def db(self): return bb.Tensor(core_tensor=self.get_core().db()) def WQ(self): return bb.Tensor(core_tensor=self.get_core().WQ()) def bQ(self): return bb.Tensor(core_tensor=self.get_core().bQ())
class BinaryDenseAffine(Model): 'Binary DenseAffine class\n バイナリ出力なDenseAffine\n\n Args:\n output_shape (List[int]): 出力のシェイプ\n initialize_std (float) : 重み初期化乱数の標準偏差\n initializer (str): 変数の初期化アルゴリズム選択(default/normal/uniform/He/Xavier)。\n momentum (float): 学習モーメント\n gamma (float): gamma 初期値\n beta (float): beta 初期値\n fix_gamma (bool): gamma を固定する(学習させない)\n fix_beta (bool): beta を固定する(学習させない)\n bin_dtype (DType)): バイナリ型を bb.DType.FP32 と bb.DType.BIT から指定\n seed (int): 変数初期値などの乱数シード\n memory_saving (bool): メモリ節約するか\n ' def __init__(self, output_shape=None, *, input_shape=None, batch_norm=True, activation=True, initialize_std=0.01, initializer='', momentum=0.9, gamma=1.0, beta=0.0, fix_gamma=False, fix_beta=False, binary_th=0.0, binary_low=(- 1.0), binary_high=(+ 1.0), hardtanh_min=(- 1.0), hardtanh_max=(+ 1.0), seed=1, memory_saving=True, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('BinaryDenseAffine', [bin_dtype, real_dtype]).create core_model = core_creator(output_shape=output_shape, batch_norm=batch_norm, activation=activation, initialize_std=initialize_std, initializer=initializer, momentum=momentum, gamma=gamma, beta=beta, fix_gamma=fix_gamma, fix_beta=fix_beta, binary_th=binary_th, binary_low=binary_low, binary_high=binary_high, hardtanh_min=hardtanh_min, hardtanh_max=hardtanh_max, seed=seed, memory_saving=memory_saving) super(BinaryDenseAffine, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): return bb.Tensor(core_tensor=self.get_core().W()) def b(self): return bb.Tensor(core_tensor=self.get_core().b()) def dW(self): return bb.Tensor(core_tensor=self.get_core().dW()) def db(self): return bb.Tensor(core_tensor=self.get_core().db()) def gamma(self): return bb.Tensor(core_tensor=self.get_core().gamma()) def beta(self): return bb.Tensor(core_tensor=self.get_core().beta()) def dgamma(self): return bb.Tensor(core_tensor=self.get_core().dgamma()) def dbeta(self): return bb.Tensor(core_tensor=self.get_core().dbeta()) def mean(self): return bb.Tensor(core_tensor=self.get_core().mean()) def rstd(self): return bb.Tensor(core_tensor=self.get_core().rstd()) def running_mean(self): return bb.Tensor(core_tensor=self.get_core().running_mean()) def running_var(self): return bb.Tensor(core_tensor=self.get_core().running_var())
class SparseModel(Model): '疎結合の基底モデル\n ' def get_node_connection_size(self, output_node): return self.get_core().get_node_connection_size(output_node) def set_node_connection_index(self, output_node, connection, input_node): self.get_core().set_node_connection_index(output_node, connection, input_node) def get_node_connection_index(self, output_node, connection): return self.get_core().get_node_connection_index(output_node, connection) def get_lut_table_size(self, node): return self.get_core().get_lut_table_size(node) def get_lut_table(self, node, bitpos): return self.get_core().get_lut_table(node, bitpos) def get_connection_list(self): '接続リスト取得\n \n 各出力ノードの入力に対する接続を二次元リストで返す\n 入出力のシェイプにかかわらず両者が flatten された状態で処理される\n\n Returns:\n connection_list (List[List[int]]) : 接続リスト\n ' connection_list = [] rows = self.get_output_node_size() for i in range(rows): node_list = [] cols = self.get_node_connection_size(i) for j in range(cols): node_list.append(self.get_node_connection_index(i, j)) connection_list.append(node_list) return connection_list def set_connection_list(self, connection_list): '接続行列設定\n \n 各出力ノードの入力に対する接続を二次元リストで設定する\n 入出力のシェイプにかかわらず両者が flatten された状態で2次元リストとする\n\n Args:\n connection_list (List[List[int]]) : 接続リスト\n ' input_node_size = self.get_input_node_size() rows = self.get_output_node_size() assert (len(connection_list) == rows) for i in range(rows): cols = self.get_node_connection_size(i) assert (len(connection_list[i]) == cols) for j in range(cols): index = int(connection_list[i][j]) assert ((index >= 0) and (index < input_node_size)) self.set_node_connection_index(i, j, index) def get_lut_table_list(self): 'LUTテーブルのリスト取得\n\n Returns:\n lut_list (List[List[int]]) : 接続行列\n ' lut_list = [] rows = self.get_output_node_size() for i in range(rows): bit_list = [] cols = self.get_lut_table_size(i) for j in range(cols): bit_list.append(self.get_lut_table(i, j)) lut_list.append(bit_list) return lut_list
class DifferentiableLut(SparseModel): "DifferentiableLut class\n 微分可能LUTモデル\n\n 内部計算的には StocasticLUT + BatchNormalization + Binarize(HardTanh) で構成される\n\n FPGA合成するためのルックアップテーブル型のモデルを学習することができる\n 純粋な Stochastic 演算のみを行いたい場合は binarize と batch_norm の両方を False にすればよい。\n \n Args:\n output_shape (List[int]): 出力のシェイプ\n connection(str): 結線ルールを 'random', 'serial', 'depthwise' から指定可能\n batch_norm (bool): BatchNormalization を有効にするか\n binarize (bool): 二値化出力を有効にするか\n momentum (float): BatchNormalization の momentum\n gamma (float): BatchNormalization の gamma\n beta (float): BatchNormalization の beta\n N (int): LUTの入力数\n seed (int): 変数初期値などの乱数シード\n bin_dtype (DType)): バイナリ出力の型を bb.DType.FP32 と bb.DType.BIT から指定(bb.DType.BIT は binarize=True 時のみ)\n " def __init__(self, output_shape=None, *, input_shape=None, connection='random', binarize=True, batch_norm=True, momentum=0.0, gamma=0.3, beta=0.5, seed=1, name=None, N=6, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model(('DifferentiableLut' + str(N)), [bin_dtype, real_dtype]).create core_model = core_creator(output_shape, batch_norm, binarize, connection, momentum, gamma, beta, seed) super(DifferentiableLut, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def W(self): '重み行列取得\n \n コピーではなくスライス参照を得ており、本体の値を書き換え可能\n\n Returns:\n W (Tensor): 重み行列を指すTensor\n ' return bb.Tensor.from_core(self.get_core().W()) def dW(self): '重みの勾配行列取得\n\n コピーではなくスライス参照を得ており、本体の値を書き換え可能\n\n Returns:\n W (Tensor): 重みの勾配を指すTensor\n ' return bb.Tensor.from_core(self.get_core().dW()) def get_mean(self): return bb.Tensor.from_core(self.get_core().get_mean()) def get_var(self): return bb.Tensor.from_core(self.get_core().get_var()) def get_gamma(self): return self.get_core().get_gamma() def get_beta(self): return self.get_core().get_beta()
class AverageLut(SparseModel): "AverageLut class\n 入力値の平均を出力するLUT型のモデル\n バイナリの場合、bitをカウントして1の方が多ければ1を出力するテーブル固定のLUTと考える事ができる\n\n Args:\n output_shape ([int]): 出力のシェイプ\n connection(str): 結線ルールを 'random', 'serial', 'depthwise' から指定可能\n binarize (bool): 二値化出力を有効にするか\n binarize_input (bool): 入力を二値化してから使うようにするか\n N (int): LUTの入力数\n seed (int): 変数初期値などの乱数シード\n bin_dtype (DType)): バイナリ出力の型を bb.DType.FP32 と bb.DType.BIT から指定(bb.DType.BIT は binarize=True 時のみ)\n " def __init__(self, output_shape=None, *, input_shape=None, name=None, N=6, connection='serial', binarize=True, binarize_input=False, seed=1, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('AverageLut', [bin_dtype, real_dtype]).create core_model = core_creator(n=N, output_shape=output_shape, connection=connection, binarize=binarize, binarize_input=binarize_input, seed=seed) super(AverageLut, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class MaxLut(SparseModel): "MaxLut class\n 入力値の最大値を出力するLUT型のモデル\n バイナリの場合、論理和をの形となるモデル\n\n Args:\n output_shape ([int]): 出力のシェイプ\n connection(str): 結線ルールを 'random', 'serial', 'depthwise' から指定可能\n binarize (bool): 二値化出力を有効にするか\n binarize_input (bool): 入力を二値化してから使うようにするか\n N (int): LUTの入力数\n seed (int): 変数初期値などの乱数シード\n bin_dtype (DType)): バイナリ出力の型を bb.DType.FP32 と bb.DType.BIT から指定(bb.DType.BIT は binarize=True 時のみ)\n " def __init__(self, output_shape=None, *, input_shape=None, name=None, N=6, connection='serial', binarize=True, binarize_input=False, seed=1, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('MaxLut', [bin_dtype, real_dtype]).create core_model = core_creator(n=N, output_shape=output_shape, connection=connection, binarize=binarize, binarize_input=binarize_input, seed=seed) super(MaxLut, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class BinaryLut(SparseModel): "バイナリLUTモデル\n\n 一般的なFPGAのLUTと同等の機能をするモデル。\n 学習能力はなく、他のモデルで学習した結果をインポートしてモデル評価を行うためのもの\n \n Args:\n output_shape (List[int]): 出力のシェイプ\n connection(str): 結線ルールを 'random', 'serial', 'depthwise' から指定可能(未実装)\n N (int): LUTの入力数\n seed (int): 変数初期値などの乱数シード\n fw_dtype (DType)): forwardの型を bb.DType.FP32 と bb.DType.BIT から指定\n " def __init__(self, output_shape=None, *, input_shape=None, connection='random', seed=1, name=None, N=6, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model(('BinaryLut' + str(N)), [fw_dtype, bw_dtype]).create core_model = core_creator(output_shape, connection, seed) super(BinaryLut, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def import_layer(self, leyaer): '他のモデルからからインポート\n\n インポート元は入出力が同じ形状をしている必要があり、デジタル値の入力に対して\n 出力を 0.5 を閾値として、バイナリテーブルを構成して取り込む\n\n Args:\n leyaer (Model): インポート元のモデル\n ' self.get_core().import_layer(leyaer.get_core()) @staticmethod def from_sparse_model(layer, *, fw_dtype=bb.DType.FP32): '他のモデルを元に生成\n\n インポート元は入出力が同じ形状をしている必要があり、デジタル値の入力に対して\n 出力を 0.5 を閾値として、バイナリテーブルを構成して取り込む\n\n Args:\n leyaer (Model): インポート元のモデル\n ' N = layer.get_core().get_node_connection_size(0) new_model = BinaryLut(output_shape=layer.get_output_shape(), input_shape=layer.get_input_shape(), N=N, fw_dtype=fw_dtype) new_model.import_layer(layer) return new_model
class ConvolutionIm2Col(Model): 'ConvolutionIm2Col class\n 畳み込みの lowering における im2col 層\n ' def __init__(self, filter_size=(1, 1), stride=(1, 1), *, padding='valid', border_mode='reflect_101', border_value=0.0, input_shape=None, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('ConvolutionIm2Col', [fw_dtype, bw_dtype]).create core_model = core_creator(filter_size[0], filter_size[1], stride[0], stride[1], padding, border_mode) super(ConvolutionIm2Col, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def get_filter_size(self): core_model = self.get_core() return [core_model.get_filter_size_h(), core_model.get_filter_size_w()] def get_stride(self): core_model = self.get_core() return [core_model.get_stride_y(), core_model.get_stride_x()] def get_padding(self): return self.get_core().get_padding() def get_border_mode(self): return self.get_core().get_border_mode() def get_border_value(self): return self.get_core().get_border_value()
class ConvolutionCol2Im(Model): 'ConvolutionCol2Im class\n 畳み込みの lowering における col2im 層\n ' def __init__(self, output_size=(1, 1), *, input_shape=None, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('ConvolutionCol2Im', [fw_dtype, bw_dtype]).create core_model = core_creator(output_size[0], output_size[1]) super(ConvolutionCol2Im, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def set_output_size(self, output_size): self.get_core().set_output_size(output_size[0], output_size[1])
class Convolution2d(Sequential): "Convolution class\n Lowering による畳み込み演算をパッキングするクラス\n\n sub_layer で指定した演算レイヤーを畳み込み計算するためのモデル\n 例えば sub_layer に DenseAffineレイヤーを指定すると一般的なCNN用の畳み込み層となるが、\n BinaryBrain ではここに DifferentiableLut モデルを組み合わせて作った複合レイヤーを\n 指定することでFPGA化に適した畳み込み層を学習させることができる。\n\n sub_layer で指定したサブレイヤーが im2col と col2im で挟み込まれ、一般に\n Lowering と呼ばれる方法で畳み込み演算が実行される\n\n Args:\n sub_layer (Model): 畳み込みを行うサブレイヤー(このレイヤが im2col と col2im で挟み込まれる)\n filter_size ((int, int)): 2次元のタプルでフィルタサイズを指定する\n stride ((int, int)): 2次元のタプルでストライドサイズを指定する\n batch_norm (bool): BatchNormalization を有効にするか\n padding (str)): パディングの方法を 'valid' と 'same' で指定する\n border_mode (Border)): 'same' 時のボーダー処理を指定する\n border_value (float): 'same' 時のボーダー処理が CONSTANT の場合にパディング値を指定する\n fw_dtype (DType)): forwarする型を bb.DType.FP32 と bb.DType.BIT から指定\n " def __init__(self, sub_layer, filter_size=(1, 1), stride=(1, 1), *, input_shape=None, padding='valid', border_mode='reflect_101', border_value=0.0, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32): self.fw_dtype = fw_dtype self.bw_dtype = bw_dtype self.shapes = [] self.im2col = ConvolutionIm2Col(filter_size=filter_size, stride=stride, padding=padding, border_mode=border_mode, border_value=border_value, fw_dtype=fw_dtype, bw_dtype=bw_dtype) self.sub_layer = sub_layer self.col2im = ConvolutionCol2Im(fw_dtype=fw_dtype, bw_dtype=bw_dtype) model_list = [self.im2col, self.sub_layer, self.col2im] super(Convolution2d, self).__init__(model_list=model_list, name=name, input_shape=input_shape) def send_command(self, command, send_to='all'): self.im2col.send_command(command=command, send_to=send_to) self.sub_layer.send_command(command=command, send_to=send_to) self.col2im.send_command(command=command, send_to=send_to) def get_core(self): core_creator = search_core_model('Convolution2d', [self.fw_dtype, self.bw_dtype]).create core_model = core_creator(self.im2col.get_core(), self.sub_layer.get_core(), self.col2im.get_core()) if (self.name is not None): core_model.set_name(self.name) return core_model def get_sub_layer(self): return self.sub_layer def set_input_shape(self, shape): self.input_shape = shape input_h_size = shape[1] input_w_size = shape[2] padding = self.im2col.get_padding() filter_size = self.im2col.get_filter_size() stride = self.im2col.get_stride() if (padding == 'valid'): output_h_size = ((((input_h_size - filter_size[0]) + 1) + (stride[0] - 1)) // stride[0]) output_w_size = ((((input_w_size - filter_size[1]) + 1) + (stride[1] - 1)) // stride[1]) elif (padding == 'same'): output_h_size = ((input_h_size + (stride[0] - 1)) // stride[0]) output_w_size = ((input_w_size + (stride[1] - 1)) // stride[0]) else: raise ValueError('illegal padding value') self.col2im.set_output_size(output_size=[output_h_size, output_w_size]) return super(Convolution2d, self).set_input_shape(shape) def forward(self, x_buf, train=True): shape = x_buf.get_node_shape() self.set_input_shape(shape) if train: self.shapes.append(shape) return super(Convolution2d, self).forward(x_buf, train=train) def backward(self, dy_buf): shape = self.shapes.pop() self.set_input_shape(shape) return super(Convolution2d, self).backward(dy_buf) def clear(self): self.shapes = [] return super(Convolution2d, self).clear() def get_object_name(self): return ((('Convolution2d_' + bb.dtype_to_name(self.fw_dtype)) + '_') + bb.dtype_to_name(self.bw_dtype)) def dumps(self): data = b'' data += core.Object.write_header(self.get_object_name()) ver = 1 data += bb.int_to_bytes(ver) data += self.im2col.dumps() data += self.col2im.dumps() if self.sub_layer: data += bb.bool_to_bytes(True) data += self.sub_layer.dumps() else: data += bb.bool_to_bytes(False) return data def loads(self, data): (data, name) = bb.load_object_header(data) type_names = re.match('Convolution2d_(.+)_(.+)', name) assert type_names self.fw_dtype = bb.dtype_from_name(type_names[1]) self.bw_dtype = bb.dtype_from_name(type_names[2]) (data, ver) = bb.int_from_bytes(data) assert (ver == 1) data = self.im2col.loads(data) data = self.col2im.loads(data) (data, has_layer) = bb.bool_from_bytes(data) if has_layer: if self.sub_layer: data = self.sub_layer.loads(data) else: (data, model) = bb.object_loads(data) self.sub_layer = model self.set_model_list([self.im2col, self.sub_layer, self.col2im]) return data @classmethod def from_bytes(cls, data): (_, object_name) = bb.load_object_header(data) dtypes = object_name.split('_') new_model = cls(sub_layer=None, fw_dtype=bb.dtype_from_name(dtypes[1]), bw_dtype=bb.dtype_from_name(dtypes[2])) data = new_model.loads(data) return (data, new_model)
class MaxPooling(Model): 'MaxPooling class\n\n Args:\n filter_size ((int, int)): 2次元のタプルでフィルタサイズを指定する\n fw_dtype (DType)): forwarする型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, filter_size=(2, 2), *, input_shape=None, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('MaxPooling', [fw_dtype, bw_dtype]).create core_model = core_creator(filter_size[0], filter_size[1]) super(MaxPooling, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class StochasticMaxPooling(Model): 'StochasticMaxPooling class\n\n Stochastic 演算として OR 演算で Pooling 層を構成するモデル\n\n Args:\n filter_size ((int, int)): 2次元のタプルでフィルタサイズを指定する(現在2x2のみ)\n fw_dtype (DType)): forwarする型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, filter_size=(2, 2), *, input_shape=None, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): assert (len(filter_size) == 2) if (core_model is None): if ((filter_size[0] == 2) and (filter_size[1] == 2)): core_creator = search_core_model('StochasticMaxPooling2x2', [fw_dtype, bw_dtype]).create core_model = core_creator() else: core_creator = search_core_model('StochasticMaxPooling', [fw_dtype, bw_dtype]).create core_model = core_creator(filter_size[0], filter_size[1]) super(StochasticMaxPooling, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class UpSampling(Model): 'UpSampling class\n\n 畳み込みの逆方向にアップサンプリングを行うモデル\n\n Args:\n filter_size ((int, int)): 2次元のタプルでフィルタサイズを指定する(現在2x2のみ)\n fw_dtype (DType)): forwarする型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, filter_size=(2, 2), *, fill=True, input_shape=None, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('UpSampling', [fw_dtype, bw_dtype]).create core_model = core_creator(filter_size[0], filter_size[1], fill) super(UpSampling, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Binarize(Model): 'Binarize class\n\n 2値化(活性化層)\n backward は hard-tanh となる\n\n Args:\n bin_dtype (DType)): バイナリ型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, *, input_shape=None, binary_th=0.0, binary_low=(- 1.0), binary_high=(+ 1.0), hardtanh_min=(- 1.0), hardtanh_max=(+ 1.0), name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('Binarize', [bin_dtype, real_dtype]).create core_model = core_creator(binary_th=binary_th, binary_low=binary_low, binary_high=binary_high, hardtanh_min=hardtanh_min, hardtanh_max=hardtanh_max) super(Binarize, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Sigmoid(Model): 'Sigmoid class\n\n Sigmoid 活性化層\n send_command で "binary true" とすることで、Binarize に切り替わる\n 多値で学習を進めて、途中から Binarize に切り替える実験などが可能である\n ' def __init__(self, *, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('Sigmoid', [bin_dtype, real_dtype]).create core_model = core_creator() super(Sigmoid, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class ReLU(Model): 'ReLU class\n\n ReLU 活性化層\n send_command で "binary true" とすることで、Binarize に切り替わる\n 多値で学習を進めて、途中から Binarize に切り替える実験などが可能である\n ' def __init__(self, *, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('ReLU', [bin_dtype, real_dtype]).create core_model = core_creator() super(ReLU, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class HardTanh(Model): 'HardTanh class\n\n HardTanh 活性化層\n send_command で "binary true" とすることで、Binarize に切り替わる\n 多値で学習を進めて、途中から Binarize に切り替える実験などが可能である\n ' def __init__(self, *, input_shape=None, name=None, bin_dtype=bb.DType.FP32, real_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('HardTanh', [bin_dtype, real_dtype]).create core_model = core_creator() super(HardTanh, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Softmax(Model): 'Softmax class\n\n Softmax 活性化層\n ' def __init__(self, *, input_shape=None, name=None, dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('Softmax', [dtype]).create core_model = core_creator() super(Softmax, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class BatchNormalization(Model): 'BatchNormalization class\n\n Args:\n momentum (float): 学習モーメント\n gamma (float): gamma 初期値\n beta (float): beta 初期値\n fix_gamma (bool): gamma を固定する(学習させない)\n fix_beta (bool): beta を固定する(学習させない)\n bin_dtype (DType)): バイナリ型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, *, input_shape=None, momentum=0.9, gamma=1.0, beta=0.0, fix_gamma=False, fix_beta=False, name=None, dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('BatchNormalization', [dtype]).create core_model = core_creator(momentum=momentum, gamma=gamma, beta=beta, fix_gamma=fix_gamma, fix_beta=fix_beta) super(BatchNormalization, self).__init__(core_model=core_model, input_shape=input_shape, name=name) def gamma(self): return bb.Tensor(core_tensor=self.get_core().gamma()) def beta(self): return bb.Tensor(core_tensor=self.get_core().beta()) def dgamma(self): return bb.Tensor(core_tensor=self.get_core().dgamma()) def dbeta(self): return bb.Tensor(core_tensor=self.get_core().dbeta()) def mean(self): return bb.Tensor(core_tensor=self.get_core().mean()) def rstd(self): return bb.Tensor(core_tensor=self.get_core().rstd()) def running_mean(self): return bb.Tensor(core_tensor=self.get_core().running_mean()) def running_var(self): return bb.Tensor(core_tensor=self.get_core().running_var())
class Dropout(Model): 'Dropout class\n\n Args:\n rate (float): Drop率\n seed (int): 乱数シード\n fw_dtype (DType): forwardの型を bb.DType.FP32 と bb.DType.BIT から指定\n ' def __init__(self, *, rate=0.5, input_shape=None, seed=1, name=None, fw_dtype=bb.DType.FP32, bw_dtype=bb.DType.FP32, core_model=None): if (core_model is None): core_creator = search_core_model('Dropout', [fw_dtype, bw_dtype]).create core_model = core_creator(rate, seed) super(Dropout, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Shuffle(Model): 'Shuffle class\n\n 所謂 ShuffleNet のようなシャッフルを行うモデル\n 入力ノードが shuffle_unit 個のグループに分割されるようにシャッフルする\n\n\n Args:\n shuffle_unit (int): シャッフルする単位\n ' def __init__(self, shuffle_unit, *, output_shape=None, input_shape=None, name=None, core_model=None): if (output_shape is None): output_shape = [] if (core_model is None): core_creator = search_core_model('Shuffle', []).create core_model = core_creator(shuffle_unit, output_shape) super(Shuffle, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class Concatenate(Model): 'Concatenate class\n\n 複数の入力をConcatenateするクラス\n ' def __init__(self, *, input_shape=None, name=None, core_model=None): if (core_model is None): core_creator = search_core_model('Concatenate', []).create core_model = core_creator() super(Concatenate, self).__init__(core_model=core_model, input_shape=input_shape, name=name)
class DifferentiableLutBlock(Sequential): def __init__(self, output_shape, depth, name=None, batch_norm=True, binarize=True, bin_dtype=bb.DType.FP32): self.layers = [] for i in range(depth): if (name is None): layer_name = None else: layer_name = ((name + '_') + str(i)) connection = ('serial' if (i < (depth - 1)) else 'random') if (i == 0): self.layers.insert(0, bb.AverageLut(output_shape, connection=connection, binarize=binarize, name=layer_name, bin_dtype=bin_dtype)) else: self.layers.insert(0, bb.DifferentiableLut(output_shape, connection=connection, batch_norm=batch_norm, binarize=binarize, name=layer_name, bin_dtype=bin_dtype)) output_shape[0] *= 6 super(DifferentiableLutBlock, self).__init__(self.layers, name=name)
def get_model_list(net, flatten: bool=False): ' Get model list from networks\n ネットから構成するモデルのリストを取り出す\n \n Args:\n net (Model): 検索するパス\n flatten (bool): 階層をフラットにするかどうか\n Returns:\n list of models\n ' if (type(net) is not list): net = [net] if (not flatten): return net def flatten_list(in_list, out_list): for model in in_list: if hasattr(model, 'get_model_list'): flatten_list(model.get_model_list(), out_list) else: out_list.append(model) out_list = [] flatten_list(net, out_list) return out_list
def get_model_list_for_rtl(net): if (type(net) is not list): net = [net] def flatten_list(in_list, out_list): for model in in_list: if issubclass(type(model), Switcher): model = model.get_current_model() if ((type(model) != Convolution2d) and hasattr(model, 'get_model_list')): flatten_list(model.get_model_list(), out_list) else: out_list.append(model) out_list = [] flatten_list(net, out_list) return out_list
def int_to_bytes(value: int): return value.to_bytes(8, 'little')
def int_from_bytes(data: bytes) -> (bytes, int): value = int.from_bytes(data[0:8], 'little') return (data[8:], value)
def bool_to_bytes(value: bool): return value.to_bytes(1, 'little')
def bool_from_bytes(data: bytes) -> (bytes, bool): value = bool.from_bytes(data[0:1], 'little') return (data[1:], value)
def string_to_bytes(value: str): value = value.encode(encoding='utf-8') data = int_to_bytes(len(value)) data += value return data
def string_from_bytes(data: bytes) -> (bytes, str): (data, str_len) = int_from_bytes(data) value = data[0:str_len].decode(encoding='utf-8') return (data[str_len:], value)
def dump_object_header(object_name): return core.Object.write_header(object_name)
def load_object_header(data): (load_size, object_name) = core.Object.read_header(data) return (data[load_size:], object_name)
def get_core_class_list(): return _core_class_list
def get_core_class_dict(): return _core_class_dict
def search_core_class(class_name): return _core_class_dict[class_name]
def get_core_subclass_list(superclass): class_list = [] for c in get_core_class_list(): if issubclass(c[1], superclass): class_list.append(c) return class_list
def get_core_subclass_dict(superclass): return {k: v for (k, v) in get_core_subclass_list(superclass)}
def make_core_object_name(object_name, dtypes): for dtype in dtypes: object_name = ((object_name + '_') + bb.dtype_to_name(dtype)) return object_name
def split_core_object_name(core_object_name): args = core_object_name.split('_') dtypes = [] for dtype_name in args[1:]: dtypes.append(bb.dtype_from_name(dtype_name)) return (args[0], dtypes)
def get_core_object_list(): return _core_object_list
def get_core_object_dict(): return _core_object_dict
def search_core_object(object_name, dtypes): core_object_name = make_core_object_name(object_name, dtypes) return _core_object_dict[core_object_name]
def core_object_loads(data): (load_size, core_object) = core.object_load(data) return (data[load_size:], core_object)
def object_creator_regist(creator): _object_creator_list.append(creator)
def object_loads(data: bytes): 'バイト列からオブジェクトを再構築する\n\n Args:\n data(bytes): バイト列\n \n Returns:\n obj (Object): 再構築したオブジェクト\n ' (_, object_name) = core.Object.read_header(data) split_name = object_name.split('_') name = split_name[0] dtypes = [] for dtype_name in split_name[1:]: dtypes.append(bb.dtype_from_name(dtype_name)) for creator in _object_creator_list: (data, obj) = creator(data, name, dtypes) if (obj is not None): return (data, obj) (load_size, obj) = core.object_load(data) if (obj is not None): return (data[load_size:], obj) print(('object_loads not object found : %s' % object_name)) return (data, None)
def object_load(filename: str): 'ファイルからオブジェクトを再構築する\n\n Args:\n filename(str): ファイル名\n \n Returns:\n obj (Object): 再構築したオブジェクト\n ' with open(filename, 'rb') as f: (data, obj) = bb.object_loads(f.read()) if (data != b''): print('[object_loads] warrning: data is too long') return obj
class Object(): '各クラスの基底クラス\n \n 本クラスから派生する各種のクラスにはシリアライズの機能がサポートされる\n\n ' def __init__(self, core_object=None): self.core_object = core_object def set_core(self, core_object): self.core_object = core_object def get_core(self): return self.core_object def get_object_name(self): core_object = self.get_core() if (core_object is not None): return core_object.get_object_name() return '' def dumps(self) -> bytes: 'バイトデータにシリアライズ\n\n モデルのデータをシリアライズして保存するためのバイト配列を生成\n \n Returns:\n data (bytes): Serialize data\n ' core_model = self.get_core() if (core_model is not None): return core_model.dump_object() return b'' def loads(self, data: bytes) -> bytes: 'バイトデータをロード\n\n モデルのデータをシリアライズして復帰のバイト配列ロード\n \n Args:\n data (bytes): Serialize data\n ' core_model = self.get_core() if (core_model is not None): size = core_model.load_object(data) return data[size:] return data def dump(self, filename: str): 'ファイルに保存\n\n モデルのデータをシリアライズしてファイルに保存\n \n Args:\n filename (str): ファイル名\n ' with open(filename, 'wb') as f: f.write(self.dumps()) def load(self, filename: str): 'ファイルからロード\n\n ファイルからロード\n \n Args:\n filename (str): ファイル名\n ' with open(filename, 'rb') as f: data = self.loads(f.read()) if (data != b''): print('[Model.loads] warrning: data is too long')
class Optimizer(bb.Object): 'Optimizer の基本クラス\n ' def __init__(self, core_optimizer=None): super(Optimizer, self).__init__(core_object=core_optimizer) def set_variables(self, params, grads): '変数設定\n\n Args:\n params (Variables): 学習対象のパラメータ変数\n grads (Variables): paramsに対応する勾配変数\n ' self.get_core().set_variables(params.get_core(), grads.get_core()) def update(self): 'パラメータ更新&勾配ゼロクリア\n\n set_variablesで設定された勾配変数に基づいた学習をset_variablesで\n 設定されたパラメータ変数に適用して、勾配をゼロクリアする\n ' return self.get_core().update() def zero_grad(self): '勾配のゼロクリア\n\n set_variablesで設定された勾配変数をゼロクリアする\n ' return self.get_core().zero_grad() def step(self): 'パラメータ更新\n\n set_variablesで設定された勾配変数に基づいた学習をset_variablesで\n 設定されたパラメータ変数に適用する\n ' return self.get_core().step() def set_learning_rate(self, learning_rate): '学習率設定\n ' self.get_core().set_learning_rate(learning_rate)
class OptimizerSgd(Optimizer): 'SGD 最適化クラス\n\n Args:\n learning_rate (float): 学習率\n ' def __init__(self, learning_rate=0.001, dtype=bb.DType.FP32): core_optimizer = bb.search_core_object('OptimizerSgd', [dtype]).create(learning_rate=learning_rate) super(OptimizerSgd, self).__init__(core_optimizer=core_optimizer)
class OptimizerAdaGrad(Optimizer): 'AdaGrad 最適化クラス\n\n Args:\n learning_rate (float): 学習率\n ' def __init__(self, learning_rate=0.01, dtype=bb.DType.FP32): core_optimizer = bb.search_core_object('OptimizerAdaGrad', [dtype]).create(learning_rate=learning_rate) super(OptimizerAdaGrad, self).__init__(core_optimizer=core_optimizer)
class OptimizerAdam(Optimizer): 'Adam 最適化クラス\n\n Args:\n learning_rate (float): 学習率\n beta1 (float): beta1\n beta2 (float): beta2\n ' def __init__(self, learning_rate=0.001, beta1=0.9, beta2=0.999, dtype=bb.DType.FP32): core_optimizer = bb.search_core_object('OptimizerAdam', [dtype]).create(learning_rate=learning_rate, beta1=beta1, beta2=beta2) super(OptimizerAdam, self).__init__(core_optimizer=core_optimizer)
def get_date_string(): return datetime.datetime.now().strftime('%Y%m%d_%H%M%S')
def is_date_string(text: str): ' Check if the string is a date\n データ保存パス用の日付文字列かどうか判定\n \n Args:\n text (str): 判定する文字列\n \n Returns:\n Boolean.\n ' if re.fullmatch('[12][0-9]{3}[01][0-9][0-3][0-9]_[0-2][0-9][0-5][0-9][0-5][0-9]', text): return True return False
def get_latest_path(path: str) -> str: ' Get latest data path\n 最新のデータ保存パスを取得\n \n Args:\n path (str): 検索するパス\n \n Returns:\n 見つかったパス. 見つからなければ None\n ' if (not os.path.exists(path)): return None files = os.listdir(path) dirs = [f for f in files if os.path.isdir(os.path.join(path, f))] targets = [] for d in dirs: if is_date_string(d): targets.append(d) if (not targets): return None targets.sort(reverse=True) return os.path.join(path, targets[0])
def remove_backups(path: str, keeps: int=(- 1)): ' Get latest data path\n 最新のデータ保存パスを取得\n \n Args:\n path (str): 検索するパス\n keeps (int): 削除せずに残す数\n ' if (keeps < 0): return files = os.listdir(path) dirs = [f for f in files if os.path.isdir(os.path.join(path, f))] targets = [] for d in dirs: if is_date_string(d): no_delete_file = os.path.join(path, d, '__no_delete__') if (not os.path.exists(no_delete_file)): targets.append(d) targets.sort(reverse=True) del targets[:keeps] for t in targets: shutil.rmtree(os.path.join(path, t))
def _save_net_file(path: str, name: str, net, file_format=None): if ((file_format == 'bin') or (file_format == 'all')): net_file_name = os.path.join(path, (name + '.bin')) with open(net_file_name, 'wb') as f: f.write(net.dump_bytes()) elif ((file_format == 'pickle') or (file_format == 'all')): net_file_name = os.path.join(path, (name + '.pickle')) with open(net_file_name, 'wb') as f: f.write(pickle.dumps(net)) else: net_file_name = os.path.join(path, (name + '.bb_net')) with open(net_file_name, 'wb') as f: f.write(net.dumps())
def _load_net_file(path: str, name: str, net, file_format=None) -> bool: if ((file_format is None) or (file_format == 'bb_net')): net_file_name = os.path.join(path, (name + '.bb_net')) if os.path.exists(net_file_name): with open(net_file_name, 'rb') as f: net.loads(f.read()) return True if ((file_format is None) or (file_format == 'bin')): net_file_name = os.path.join(path, (name + '.bin')) if os.path.exists(net_file_name): with open(net_file_name, 'rb') as f: net.load_bytes(f.read()) return True if ((file_format is None) or (file_format == 'pickle')): net_file_name = os.path.join(path, (name + '.pickle')) if os.path.exists(net_file_name): with open(net_file_name, 'rb') as f: tmp_net = pickle.loads(f.read()) net.loads(tmp_net.dumps()) return True return False
def save_models(path: str, net, *, write_layers=True, file_format=None): ' save networks\n ネットを構成するモデルの保存\n \n Args:\n path (str): 保存するパス\n net (Model): 保存するネット\n write_layers (bool) : レイヤー別にも出力するかどうか\n ' os.makedirs(path, exist_ok=True) net_name = net.get_name() _save_net_file(path, net_name, net, file_format=file_format) if write_layers: models = bb.get_model_list(net, flatten=True) fname_list = [] for (i, model) in enumerate(models): name = model.get_name() if model.is_named(): if (name in fname_list): print(('[warrning] duplicate model name : %s' % name)) fname = ('%04d_%s' % (i, name)) else: fname = ('%s' % name) else: fname = ('%04d_%s' % (i, name)) fname_list.append(fname) _save_net_file(path, fname, model, file_format=file_format)
def load_models(path: str, net, *, read_layers: bool=False, file_format=None, verbose=True): ' load networks\n ネットを構成するモデルの保存\n \n Args:\n path (str): 読み出すパス\n net (Model): 読み込むネット\n read_layers (bool) : レイヤー別に読み込むか\n verbose (bool) : 詳しく表示する\n ' if (not read_layers): net_name = net.get_name() res = _load_net_file(path, net_name, net, file_format=file_format) if ((not res) and verbose): print(('file not found : %s' % os.path.join(path, net_name))) return res models = bb.get_model_list(net, flatten=True) fname_list = [] for (i, model) in enumerate(models): name = model.get_name() if model.is_named(): if (name in fname_list): print(('[warrning] duplicate model name : %s' % name)) fname = ('%04d_%s' % (i, name)) else: fname = ('%s' % name) else: fname = ('%04d_%s' % (i, name)) fname_list.append(fname) res = _load_net_file(path, fname, model, file_format=file_format) if ((not res) and verbose): print(('file not found : %s' % fname)) return True
def save_networks(path: str, net, name=None, *, backups: int=10, write_layers: bool=False, file_format=None): ' save networks\n ネットを構成するモデルの保存\n \n 指定したパスの下にさらに日付でディレクトリを作成して保存\n 古いものから削除する機能あり\n 名前を指定すれば日付ではなく名前で記録可能\n \n Args:\n path (str) : 保存するパス\n net (Model) : 保存するネット\n name (str) : 保存名(指定しなければ日時で保存)\n backups (int) : 残しておく古いデータ数(-1ですべて残す)\n write_layers(bool) : レイヤー別に出力\n \n Returns:\n name (str) : 保存名を返す\n ' os.makedirs(path, exist_ok=True) if (name is None): name = get_date_string() data_path = os.path.join(path, name) save_models(data_path, net, write_layers=write_layers, file_format=file_format) if (backups >= 0): remove_backups(path, keeps=backups) return name
def load_networks(path: str, net, name=None, *, read_layers: bool=False, file_format=None, verbose=True): ' load network\n ネットを構成するモデルの読み込み\n \n 最新のデータを探して読み込み\n 名前を指定した場合はそれを読み込み\n \n Args:\n path (str) : 読み込むパス\n net (Model) : 読み込むネット\n file_format (str) : 読み込む形式(Noneがデフォルト)\n verbose (bool) : 詳しく表示する\n ' if (name is None): data_path = get_latest_path(path) else: data_path = os.path.join(path, name) if (data_path is None): print('not loaded : file not found') return False ret = load_models(data_path, net, read_layers=read_layers, file_format=file_format, verbose=verbose) return ret
def get_load_networks_path(path: str, net, name=None): 'ネットワークをロードするパスを取得' if (name is None): return get_latest_path(path) else: return os.path.join(path, name)
def copy_network_files(data_path, dst_name, src_name, wildcard='*', exist_ok=False, verbose=1): 'ネットワークファイルのコピー' dst_path = os.path.join(data_path, dst_name) src_name = os.path.join(data_path, src_name) if os.path.exists(dst_path): if (not exist_ok): print(('already exists: %s' % dst_path)) return False else: os.makedirs(dst_path, exist_ok=exist_ok) files = glob.glob(os.path.join(src_name, wildcard)) for file in files: if (verbose >= 1): print(file) shutil.copy(file, dst_path) return True
def get_version_string(): 'バージョン文字列取得\n \n Returns:\n version (str) : バージョン文字列\n ' return core.get_version_string()
def omp_set_num_threads(threads: int): 'omp_set_num_threads\n \n omp_set_num_threadsを呼び出す\n バックグランドで学習する場合など、Host側のCPUをすべて使うと\n 逆に性能が落ちる場合や、運用上不便なケースなどで個数制限できる\n\n Args:\n threads (int) : OpenMPでのスレッド数\n ' core.omp_set_num_threads(threads)
def is_device_available(): 'デバイス(GPU)が有効かの確認\n\n Returns:\n device_available (bool) : デバイス(GPU)が利用可能なら True を返す\n ' return core.Manager.is_device_available()