| <!--Copyright 2022 The HuggingFace Team. All rights reserved. | |
| Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with | |
| the License. You may obtain a copy of the License at | |
| http://www.apache.org/licenses/LICENSE-2.0 | |
| Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on | |
| an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the | |
| specific language governing permissions and limitations under the License. | |
| ⚠️ Note that this file is in Markdown but contain specific syntax for our doc-builder (similar to MDX) that may not be | |
| rendered properly in your Markdown viewer. | |
| --> | |
| # CLIPSeg | |
| ## Overview | |
| CLIPSeg モデルは、Timo Lüddecke, Alexander Ecker によって [Image Segmentation using Text and Image Prompts](https://arxiv.org/abs/2112.10003) で提案されました。 | |
| そしてアレクサンダー・エッカー。 CLIPSeg は、ゼロショットおよびワンショット画像セグメンテーションのために、凍結された [CLIP](clip) モデルの上に最小限のデコーダを追加します。 | |
| 論文の要約は次のとおりです。 | |
| *画像のセグメンテーションは通常、トレーニングによって解決されます。 | |
| オブジェクト クラスの固定セットのモデル。後で追加のクラスやより複雑なクエリを組み込むとコストがかかります | |
| これらの式を含むデータセットでモデルを再トレーニングする必要があるためです。ここでシステムを提案します | |
| 任意の情報に基づいて画像セグメンテーションを生成できます。 | |
| テスト時にプロンプトが表示されます。プロンプトはテキストまたは | |
| 画像。このアプローチにより、統一されたモデルを作成できます。 | |
| 3 つの一般的なセグメンテーション タスクについて (1 回トレーニング済み) | |
| 参照式のセグメンテーション、ゼロショット セグメンテーション、ワンショット セグメンテーションという明確な課題が伴います。 | |
| CLIP モデルをバックボーンとして構築し、これをトランスベースのデコーダで拡張して、高密度なデータ通信を可能にします。 | |
| 予測。の拡張バージョンでトレーニングした後、 | |
| PhraseCut データセット、私たちのシステムは、フリーテキスト プロンプトまたは | |
| クエリを表す追加の画像。後者の画像ベースのプロンプトのさまざまなバリエーションを詳細に分析します。 | |
| この新しいハイブリッド入力により、動的適応が可能になります。 | |
| 前述の 3 つのセグメンテーション タスクのみですが、 | |
| テキストまたは画像をクエリするバイナリ セグメンテーション タスクに | |
| 定式化することができる。最後に、システムがうまく適応していることがわかりました | |
| アフォーダンスまたはプロパティを含む一般化されたクエリ* | |
| <img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/transformers/model_doc/clipseg_architecture.png" | |
| alt="描画" width="600"/> | |
| <small> CLIPSeg の概要。 <a href="https://arxiv.org/abs/2112.10003">元の論文から抜粋。</a> </small> | |
| このモデルは、[nielsr](https://huggingface.co/nielsr) によって提供されました。 | |
| 元のコードは [ここ](https://github.com/timojl/clipseg) にあります。 | |
| ## Usage tips | |
| - [`CLIPSegForImageSegmentation`] は、[`CLIPSegModel`] の上にデコーダを追加します。後者は [`CLIPModel`] と同じです。 | |
| - [`CLIPSegForImageSegmentation`] は、テスト時に任意のプロンプトに基づいて画像セグメンテーションを生成できます。プロンプトはテキストのいずれかです | |
| (`input_ids` としてモデルに提供される) または画像 (`conditional_pixel_values` としてモデルに提供される)。カスタムを提供することもできます | |
| 条件付き埋め込み (`conditional_embeddings`としてモデルに提供されます)。 | |
| ## Resources | |
| CLIPSeg の使用を開始するのに役立つ、公式 Hugging Face およびコミュニティ (🌎 で示されている) リソースのリスト。ここに含めるリソースの送信に興味がある場合は、お気軽にプル リクエストを開いてください。審査させていただきます。リソースは、既存のリソースを複製するのではなく、何か新しいものを示すことが理想的です。 | |
| <PipelineTag pipeline="image-segmentation"/> | |
| - [CLIPSeg を使用したゼロショット画像セグメンテーション](https://github.com/NielsRogge/Transformers-Tutorials/blob/master/CLIPSeg/Zero_shot_image_segmentation_with_CLIPSeg.ipynb) を説明するノートブック。 | |
| ## CLIPSegConfig | |
| [[autodoc]] CLIPSegConfig | |
| - from_text_vision_configs | |
| ## CLIPSegTextConfig | |
| [[autodoc]] CLIPSegTextConfig | |
| ## CLIPSegVisionConfig | |
| [[autodoc]] CLIPSegVisionConfig | |
| ## CLIPSegProcessor | |
| [[autodoc]] CLIPSegProcessor | |
| ## CLIPSegModel | |
| [[autodoc]] CLIPSegModel | |
| - forward | |
| - get_text_features | |
| - get_image_features | |
| ## CLIPSegTextModel | |
| [[autodoc]] CLIPSegTextModel | |
| - forward | |
| ## CLIPSegVisionModel | |
| [[autodoc]] CLIPSegVisionModel | |
| - forward | |
| ## CLIPSegForImageSegmentation | |
| [[autodoc]] CLIPSegForImageSegmentation | |
| - forward |