|
|
--- |
|
|
library_name: transformers |
|
|
license: gemma |
|
|
--- |
|
|
|
|
|
# Google USM: Extracted Gemma-3n Audio Encoder (USM) |
|
|
|
|
|
> [!Note] |
|
|
> このモデルの実態は不明確です。[Introducing Gemma 3n: The developer guide](https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/#:~:text=Gemma%203n%20uses%20an%20advanced%20audio%20encoder%20based%20on%20the%20Universal%20Speech%20Model%20(USM).)には、 |
|
|
> USMに基づくエンコーダーが使用されていると記述されていますが、USMの論文とこのモデルにはいくつかの異なる点が存在します。 |
|
|
> このモデルは0.6Bですが、USMの論文の0.6Bモデルとは層の数が異なります。 |
|
|
> このモデルは Gemma 3n の AudioEncoder であり、本来の USM とは異なる可能性があります。 |
|
|
|
|
|
## Model Description |
|
|
|
|
|
このモデルは、Googleのマルチモーダルモデル [google/gemma-3n-e2b-it](https://huggingface.co/google/gemma-3n-e2b-it) から、音声エンコーダー部分 (`audio_tower`) のみを抽出したものです。 |
|
|
|
|
|
bf16版:https://huggingface.co/Atotti/google-usm-bf16 |
|
|
|
|
|
アーキテクチャは、論文 [Universal Speech Model](https://arxiv.org/abs/2303.01037) に基づくGemma3nAudioEncoderです。 |
|
|
|
|
|
このエンコーダーは、音声波形データを受け取り、その内容を表現する高次元の特徴量(エンコーディング)のシーケンスに変換する役割を果たします。 |
|
|
|
|
|
## Intended Use |
|
|
|
|
|
このモデルは単体で音声認識(文字起こし)などを行うものではなく、より大きなモデルのコンポーネントとして使用されることを想定しています。 |
|
|
|
|
|
* マルチモーダルモデルの音声入力部として: 生成AIに音声情報を与えるための特徴量を抽出します。 |
|
|
* 音声分類: このモデルの出力に分類ヘッドを追加して、特定の音声を分類するタスクでファインチューニングします。 |
|
|
|
|
|
## How to Use |
|
|
|
|
|
### dependencies |
|
|
``` |
|
|
pip install transformers==4.53.0 |
|
|
``` |
|
|
|
|
|
```python |
|
|
import torch |
|
|
import soundfile as sf |
|
|
from transformers import Gemma3nAudioEncoder, Gemma3nAudioFeatureExtractor |
|
|
|
|
|
encoder_id = "Atotti/google-usm" |
|
|
source_model_id = "google/gemma-3n-e2b-it" |
|
|
|
|
|
audio_encoder = Gemma3nAudioEncoder.from_pretrained(encoder_id) |
|
|
feature_extractor = Gemma3nAudioFeatureExtractor.from_pretrained(source_model_id) |
|
|
|
|
|
device = "cuda" if torch.cuda.is_available() else "cpu" |
|
|
audio_encoder.to(device) |
|
|
audio_encoder.eval() |
|
|
|
|
|
waveform, sampling_rate = sf.read("/path/to/your_audio_file.wav") |
|
|
|
|
|
|
|
|
inputs = feature_extractor( |
|
|
[waveform], |
|
|
sampling_rate=sampling_rate, |
|
|
return_tensors="pt" |
|
|
) |
|
|
|
|
|
audio_mel = inputs["input_features"].to(device) |
|
|
audio_mel_mask = (inputs["input_features_mask"] == 0).to(device) |
|
|
|
|
|
with torch.inference_mode(): |
|
|
|
|
|
audio_encodings, output_mask = audio_encoder( |
|
|
audio_mel=audio_mel, |
|
|
audio_mel_mask=audio_mel_mask |
|
|
) |
|
|
|
|
|
print(audio_encodings.shape) # torch.Size([1, 18, 1536]) |
|
|
print(audio_encodings[0, :5, :10]) |
|
|
# tensor([[ 0.0014, -0.0044, 0.0003, 0.0084, -0.0076, -0.0194, 0.0071, 0.0160, |
|
|
# 0.0137, 0.0146], |
|
|
# [-0.0153, 0.0051, 0.0111, -0.0134, -0.0032, -0.0134, 0.0112, -0.0163, |
|
|
# 0.0050, 0.0036], |
|
|
# [ 0.0003, -0.0022, 0.0164, -0.0090, -0.0033, -0.0043, 0.0030, -0.0042, |
|
|
# -0.0060, 0.0066], |
|
|
# [-0.0006, -0.0194, -0.0006, -0.0097, -0.0049, -0.0132, 0.0012, 0.0175, |
|
|
# -0.0242, -0.0091], |
|
|
# [ 0.0127, 0.0122, 0.0125, 0.0277, 0.0116, 0.0152, 0.0142, -0.0099, |
|
|
# -0.0080, -0.0233]], device='cuda:0') |
|
|
|
|
|
``` |
|
|
|
|
|
## Model Architecture |
|
|
``` |
|
|
Gemma3nAudioEncoder( |
|
|
(subsample_conv_projection): Gemma3nAudioSubSampleConvProjection( |
|
|
(conv_0): Gemma3nAudioSSCPConvBlock( |
|
|
(conv): Conv2d(1, 128, kernel_size=(3, 3), stride=(2, 2), bias=False) |
|
|
(norm): Gemma3nAudioCumulativeGroupNorm() |
|
|
(activation): ReLU() |
|
|
) |
|
|
(conv_1): Gemma3nAudioSSCPConvBlock( |
|
|
(conv): Conv2d(128, 32, kernel_size=(3, 3), stride=(2, 2), bias=False) |
|
|
(norm): Gemma3nAudioCumulativeGroupNorm() |
|
|
(activation): ReLU() |
|
|
) |
|
|
(input_proj_linear): Linear(in_features=1024, out_features=1536, bias=False) |
|
|
) |
|
|
(conformer): ModuleList( |
|
|
(0-11): 12 x Gemma3nAudioConformerBlock( |
|
|
(ffw_layer_start): Gemma3nAudioConformerFeedForward( |
|
|
(pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
(ffw_layer_1): Linear(in_features=1536, out_features=6144, bias=False) |
|
|
(ffw_layer_2): Linear(in_features=6144, out_features=1536, bias=False) |
|
|
(post_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
) |
|
|
(attention): Gemma3nAudioConformerAttention( |
|
|
(pre_attn_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
(attn): Gemma3nAudioAttention( |
|
|
(relative_position_embedding): Gemma3nAudioRelativePositionEmbedding( |
|
|
(pos_proj): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
) |
|
|
(q_proj): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
(k_proj): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
(v_proj): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
) |
|
|
(post): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
(post_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
) |
|
|
(lconv1d): Gemma3nAudioConformerLightConv1d( |
|
|
(pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
(linear_start): Linear(in_features=1536, out_features=3072, bias=False) |
|
|
(depthwise_conv1d): Conv1d(1536, 1536, kernel_size=(5,), stride=(1,), groups=1536, bias=False) |
|
|
(conv_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
(linear_end): Linear(in_features=1536, out_features=1536, bias=False) |
|
|
) |
|
|
(ffw_layer_end): Gemma3nAudioConformerFeedForward( |
|
|
(pre_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
(ffw_layer_1): Linear(in_features=1536, out_features=6144, bias=False) |
|
|
(ffw_layer_2): Linear(in_features=6144, out_features=1536, bias=False) |
|
|
(post_layer_norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
) |
|
|
(norm): Gemma3nRMSNorm((1536,), eps=1e-06) |
|
|
) |
|
|
) |
|
|
) |
|
|
``` |
|
|
|
|
|
|