YAML Metadata Warning:The pipeline tag "text2text-generation" is not in the official list: text-classification, token-classification, table-question-answering, question-answering, zero-shot-classification, translation, summarization, feature-extraction, text-generation, fill-mask, sentence-similarity, text-to-speech, text-to-audio, automatic-speech-recognition, audio-to-audio, audio-classification, audio-text-to-text, voice-activity-detection, depth-estimation, image-classification, object-detection, image-segmentation, text-to-image, image-to-text, image-to-image, image-to-video, unconditional-image-generation, video-classification, reinforcement-learning, robotics, tabular-classification, tabular-regression, tabular-to-text, table-to-text, multiple-choice, text-ranking, text-retrieval, time-series-forecasting, text-to-video, image-text-to-text, image-text-to-image, image-text-to-video, visual-question-answering, document-question-answering, zero-shot-image-classification, graph-ml, mask-generation, zero-shot-object-detection, text-to-3d, image-to-3d, image-feature-extraction, video-text-to-text, keypoint-detection, visual-document-retrieval, any-to-any, video-to-video, other
Übersicht
PDF-Suzammenfassen ist ein spezialisiertes Modell, das für die Erstellung präziser Zusammenfassungen von Texten optimiert wurde, insbesondere in den Bereichen Netzwerk und IT-Themen. Es basiert auf einer feinabgestimmten Version von BART und wurde mit deutschen Fachtexten trainiert.
Funktionen
- Sprachunterstützung: Optimiert für deutsche Texte.
- Anwendungsbereiche:
- Netzwerktechnologie
- IT-Infrastruktur
- Industrie 4.0
Modell-Details
- Format: safetensors
- Parameter: 406M
- Architektur: Seq2Seq (BART)
Nutzung
Dieses Modell kann über die Hugging Face Inference API oder lokal mit der Transformers-Bibliothek verwendet werden.
Beispielcode
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
model = AutoModelForSeq2SeqLM.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
text = "Das ist ein Beispieltext, der zusammengefasst werden soll."
inputs = tokenizer(text, return_tensors="pt", truncation=True)
outputs = model.generate(inputs["input_ids"], max_length=150, min_length=30, length_penalty=2.0, num_beams=4)
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(summary)
Installation
Um dieses Modell lokal zu verwenden, führen Sie folgende Schritte aus:
Installieren Sie die Hugging Face Transformers-Bibliothek:
pip install transformers
Laden Sie das Modell und den Tokenizer herunter:
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
tokenizer = AutoTokenizer.from_pretrained("BabakBagheriGisour/pdf-suzammenfassen")
Lizenz
Dieses Modell steht unter der Apache 2.0-Lizenz. Für weitere Informationen lesen Sie bitte die Lizenzbedingungen.
- Downloads last month
- 2
Model tree for BabakBagheriGisour/pdf-suzammenfassen
Base model
facebook/bart-large-cnn