| ```json | |
| // model_index.json | |
| { | |
| "results": [ | |
| { | |
| "metrics": [ | |
| { | |
| "name": "CIDEr Score", | |
| "type": "cider", | |
| "value": 0.812 | |
| }, | |
| { | |
| "name": "BLEU-4 Score", | |
| "type": "bleu", | |
| "value": 0.255 | |
| } | |
| ], | |
| "task": { | |
| "name": "Image Captioning", | |
| "type": "image-to-text" | |
| }, | |
| "dataset": { | |
| "name": "MIMIC-CXR-JPG (Subset)", | |
| "type": "mimic_cxr" | |
| }, | |
| "model-index": 0 | |
| } | |
| ], | |
| "model-index": [ | |
| { | |
| "name": "VisionEncoderDecoderModel (CLIP-GPT2)", | |
| "results": [ | |
| { | |
| "metrics": [ | |
| { | |
| "name": "CIDEr Score", | |
| "type": "cider", | |
| "value": 0.812 | |
| } | |
| ] | |
| } | |
| ] | |
| } | |
| ] | |
| } |