--- license: mit # Lub inna licencja, np. apache-2.0 language: pl tags: - image-classification - mammography - bi-rads - resnet18 - pytorch datasets: - BUSBRA # Przykładowa nazwa, dostosuj - Normal # Przykładowa nazwa, dostosuj metrics: - accuracy # Jeśli masz metryki z walidacji --- # Model Klasyfikacji BI-RADS na Obrazach Mammograficznych Ten model to sfinetunowany ResNet-18 do klasyfikacji obrazów mammograficznych według skali BI-RADS (1-5). ## Opis Modelu Model został wytrenowany na zbiorze danych zawierającym obrazy mammograficzne z adnotacjami BI-RADS. Celem jest wsparcie w procesie diagnostycznym poprzez automatyczną kategoryzację zmian. **Architektura:** ResNet-18 z ostatnią warstwą w pełni połączoną zmodyfikowaną do 5 klas wyjściowych (BI-RADS 1 do 5) i warstwą Dropout (0.5). **Dane treningowe:** Model był trenowany na danych ze zbiorów BUSBRA oraz lokalnego zbioru obrazów prawidłowych (Normal). (Dodaj więcej szczegółów, jeśli chcesz). **Procedura treningowa:** (Opisz krótko, np. liczba epok, learning rate, augmentacje - informacje z Twojego skryptu `1.py`). ## Przeznaczenie i Ograniczenia **Przeznaczenie:** Model jest przeznaczony jako narzędzie pomocnicze dla radiologów do wstępnej oceny obrazów mammograficznych. **Ograniczenia:** - Model nie zastępuje profesjonalnej diagnozy lekarskiej. - Jakość predykcji zależy od jakości obrazu wejściowego i jego podobieństwa do danych treningowych. - (Dodaj inne znane Ci ograniczenia). ## Jak używać Model można załadować i używać w PyTorch. Poniżej znajduje się przykład, jak załadować model i wykonać predykcję. Najpierw upewnij się, że masz zainstalowane `torch` i `torchvision`. ```python import torch import torchvision.models as models import torchvision.transforms as transforms from PIL import Image import torch.nn as nn from huggingface_hub import hf_hub_download # Definicja architektury modelu (taka sama jak w use_model.py) def get_model_architecture(): model = models.resnet18(weights=None) num_feats = model.fc.in_features model.fc = nn.Sequential( nn.Dropout(0.5), nn.Linear(num_feats, 5) ) return model # Ścieżka do repozytorium i nazwa pliku na Hugging Face Hub REPO_ID = "TwojaNazwaUzytkownika/NazwaTwojegoModelu" # ZASTĄP! FILENAME = "best_model.pth" # Pobieranie wag modelu model_path = hf_hub_download(repo_id=REPO_ID, filename=FILENAME) # Ładowanie modelu device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model = get_model_architecture() model.load_state_dict(torch.load(model_path, map_location=device)) model.to(device) model.eval() print("Model załadowany pomyślnie z Hugging Face Hub!") # Transformacje dla obrazu imagenet_mean = [0.485, 0.456, 0.406] imagenet_std = [0.229, 0.224, 0.225] transform = transforms.Compose([ transforms.Resize((224, 224)), transforms.ToTensor(), transforms.Normalize(mean=imagenet_mean, std=imagenet_std) ]) # Przykładowa predykcja # try: # image = Image.open("sciezka/do/twojego/obrazu.jpg").convert("RGB") # image_tensor = transform(image).unsqueeze(0).to(device) # with torch.no_grad(): # outputs = model(image_tensor) # probs = torch.nn.functional.softmax(outputs, dim=1) # confidence, predicted_idx = torch.max(probs, 1) # birads_category = predicted_idx.item() + 1 # print(f"Przewidziana kategoria BI-RADS: {birads_category} z pewnością {confidence.item():.2%}") # except FileNotFoundError: # print("Podaj poprawną ścieżkę do obrazu, aby przetestować predykcję.")