Update app.py
Browse files
app.py
CHANGED
|
@@ -412,13 +412,13 @@ def enhanced_composite_with_sam(original_image, inpaint_result, original_mask,
|
|
| 412 |
|
| 413 |
# SAM-Maske= original_mask in Originalgröße (also Smartphone: 4032x3024). Aus dieser Maske muß nun der
|
| 414 |
# Original BBox-Bereich ausgeschnitten werden. Die Maske ist ein PIL-Image: Wertebereich (0, 255)-0=transparent, 255=deckend
|
| 415 |
-
# Im Gegensatz zum Numpy-Array
|
| 416 |
mask_cropped = original_mask.crop(bbox_coords)
|
| 417 |
print(f"🔍 [MASK] Mask-Crop Size: {mask_cropped.size}")
|
| 418 |
|
| 419 |
# Die gesamte Maske wird weichgezeichnet für natürliche Alpha-Übergänge
|
| 420 |
-
# GaussianBlur erzeugt Graustufenwerte (0-255)
|
| 421 |
-
#
|
| 422 |
soft_mask = mask_cropped.filter(ImageFilter.GaussianBlur(3))
|
| 423 |
alpha_mask = soft_mask
|
| 424 |
|
|
|
|
| 412 |
|
| 413 |
# SAM-Maske= original_mask in Originalgröße (also Smartphone: 4032x3024). Aus dieser Maske muß nun der
|
| 414 |
# Original BBox-Bereich ausgeschnitten werden. Die Maske ist ein PIL-Image: Wertebereich (0, 255)-0=transparent, 255=deckend
|
| 415 |
+
# Im Gegensatz zum Numpy-Array: Binärmaske (0,1)! Damit wird gerechnet während PIL-Image zur Anzeige und Speicherung!
|
| 416 |
mask_cropped = original_mask.crop(bbox_coords)
|
| 417 |
print(f"🔍 [MASK] Mask-Crop Size: {mask_cropped.size}")
|
| 418 |
|
| 419 |
# Die gesamte Maske wird weichgezeichnet für natürliche Alpha-Übergänge
|
| 420 |
+
# GaussianBlur erzeugt Graustufenwerte (0-255) aus der PIL-Maske
|
| 421 |
+
#
|
| 422 |
soft_mask = mask_cropped.filter(ImageFilter.GaussianBlur(3))
|
| 423 |
alpha_mask = soft_mask
|
| 424 |
|