Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
|
@@ -22,3 +22,18 @@ MPRGでは,[初学者向けの学習用教材としてLectureNotebook](https:/
|
|
| 22 |
| `SimpleVLM.pt`| Notebookに記載されている演習では,COCOデータセットのValデータを分割して小規模化した学習用データと検証用データを作成しています.<br> そこで,無料版のGoogle Clabratoryでは実行困難なCOCOデータセットの大規模なTrainデータを用いて学習した,学習済みの重みパラメータを共有します.<br>|
|
| 23 |
| `SimpleVLM_alltoken.pt`| 課題2で行うCLIPの画像エンコーダの出力特徴をCLSトークンだけでなくすべてのトークンをLLMに渡たす場合の学習済みの重みパラメータです.|
|
| 24 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 22 |
| `SimpleVLM.pt`| Notebookに記載されている演習では,COCOデータセットのValデータを分割して小規模化した学習用データと検証用データを作成しています.<br> そこで,無料版のGoogle Clabratoryでは実行困難なCOCOデータセットの大規模なTrainデータを用いて学習した,学習済みの重みパラメータを共有します.<br>|
|
| 23 |
| `SimpleVLM_alltoken.pt`| 課題2で行うCLIPの画像エンコーダの出力特徴をCLSトークンだけでなくすべてのトークンをLLMに渡たす場合の学習済みの重みパラメータです.|
|
| 24 |
|
| 25 |
+
## 課題2補足
|
| 26 |
+
VisionEncoderの出力をCLSトークンだけでなく,全てパッチ分のトークンを出力するように変更しても,パラメータ数に変化は起きません,<br>
|
| 27 |
+
しかし,LLMが経験するVision的な特徴量の量に差があるため,再び学習する必要があると考えられます.<br>
|
| 28 |
+
- 元々CLSトークン1つの画像特徴から説明文を生成するように学習
|
| 29 |
+
- 全てのトークン257つ画像特徴から説明文を生成するように学習
|
| 30 |
+
この違いがモデルの経験値として差に現れてしまいます.<br>
|
| 31 |
+
どちらがより精度が良い説明文を生成することができるのでしょうか?<br>
|
| 32 |
+
画像特徴が1トークンだけですと,情報量が少なすぎるような気もします.(1単語と同じ情報量)<br>
|
| 33 |
+
しかし,画像特徴が257トークンになると,逆に情報量が多すぎる気もします.(257単語と同じ情報量)<br>
|
| 34 |
+
そこで,BLIPなどもモデルでは,全ての画像特徴を数トークンに圧縮して適切なトークン数をLLMに渡すような仕組みになっております.
|
| 35 |
+
|
| 36 |
+
|
| 37 |
+
|
| 38 |
+
|
| 39 |
+
|