Automatic Speech Recognition
Transformers
PyTorch
JAX
TensorBoard
ONNX
Safetensors
whisper
audio
asr
hf-asr-leaderboard
Instructions to use NbAiLab/nb-whisper-small with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use NbAiLab/nb-whisper-small with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("automatic-speech-recognition", model="NbAiLab/nb-whisper-small")# Load model directly from transformers import AutoProcessor, AutoModelForSpeechSeq2Seq processor = AutoProcessor.from_pretrained("NbAiLab/nb-whisper-small") model = AutoModelForSpeechSeq2Seq.from_pretrained("NbAiLab/nb-whisper-small") - Notebooks
- Google Colab
- Kaggle
Sammenlikning av ytelse? Hvilken modell bør jeg velge?
#1
by larsskaug - opened
Hei, har dere sammenliknet hvor effektive de forskjellige modellene er? Er de større modellene verdt å bruke mer ressurser på? Small var bedre enn large for mitt eksempel.
Small spyttet ut "Jeg har alltid vært fascinert av dualiteten nordmenn harg når det handleromåtteråkninger mellom hai, enn og feilfritt stailet interiør og lange helger brukt til å tisse ute. Uten å vaske seg en eneste gang."
Large produserte ".... uten å vaske seg en eneste gang. Frivillig."
Jepp. Hele sekvensen "Jeg har alltid vært fascinert av dualiteten nordmenn" var feilfritt transkribert av den mindre modellen og uten resultat av den større.