projectlosangeles commited on
Commit
ef689dc
·
verified ·
1 Parent(s): 19b4232

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -6
app.py CHANGED
@@ -1,6 +1,6 @@
1
- #==================================================================================
2
  # https://huggingface.co/spaces/projectlosangeles/Godzilla-Piano-Chords-Texturing-Transformer
3
- #==================================================================================
4
 
5
  print('=' * 70)
6
  print('Godzilla Piano Chords Texturing Transformer Gradio App')
@@ -22,13 +22,10 @@ os.environ['USE_FLASH_ATTENTION'] = '1'
22
 
23
  import torch
24
 
25
- torch.set_float32_matmul_precision('medium')
26
  torch.backends.cuda.matmul.allow_tf32 = True # allow tf32 on matmul
27
  torch.backends.cudnn.allow_tf32 = True # allow tf32 on cudnn
28
- torch.backends.cuda.enable_mem_efficient_sdp(True)
29
- torch.backends.cuda.enable_math_sdp(True)
30
  torch.backends.cuda.enable_flash_sdp(True)
31
- torch.backends.cuda.enable_cudnn_sdp(True)
32
 
33
  from huggingface_hub import hf_hub_download
34
 
 
1
+ #============================================================================================
2
  # https://huggingface.co/spaces/projectlosangeles/Godzilla-Piano-Chords-Texturing-Transformer
3
+ #============================================================================================
4
 
5
  print('=' * 70)
6
  print('Godzilla Piano Chords Texturing Transformer Gradio App')
 
22
 
23
  import torch
24
 
25
+ torch.set_float32_matmul_precision('high')
26
  torch.backends.cuda.matmul.allow_tf32 = True # allow tf32 on matmul
27
  torch.backends.cudnn.allow_tf32 = True # allow tf32 on cudnn
 
 
28
  torch.backends.cuda.enable_flash_sdp(True)
 
29
 
30
  from huggingface_hub import hf_hub_download
31