| # Avaliação - MME-Perception | |
| ## Estrutura do Diretório | |
| ``` | |
| main | |
| ├── MME_Benchmark | |
| │ ├── artwork | |
| │ │ ├── images | |
| │ │ │ ├── 1.jpg | |
| │ │ │ ├── 2.jpg | |
| │ │ │ ├── ... | |
| │ │ ├── question_answers_YN | |
| │ │ │ ├── 1.txt | |
| │ │ │ ├── 2.txt | |
| │ │ │ ├── ... | |
| │ ├── celebrity | |
| │ ├── code_reasoning | |
| │ ├── ... | |
| ├── calculation.py | |
| ├── translate_MME | |
| ``` | |
| ## Estrutura dos Arquivos TXT | |
| Cada arquivo `num.txt` contém as perguntas correspondentes à imagem `num.jpg`. | |
| Formato do arquivo: | |
| ``` | |
| pergunta\tresposta(sim ou não)\t | |
| ``` | |
| (Pode conter múltiplas perguntas para a mesma imagem.) | |
| ## Processo de Inferência | |
| 1. Iterar sobre as imagens e seus respectivos arquivos `.txt`. | |
| 2. Acumular, ao longo do processo, um único arquivo `.txt`, para cada task, os seguintes dados: | |
| ``` | |
| resposta_esperada{separador}resposta_do_modelo | |
| ``` | |
| - O `{separador}` é originalmente `\t`, mas pode ser alterado na linha 113 do `calculation.py`. | |
| 3. Ao final, juntar todos os arquivos `.txt` resultantes em uma mesma pasta. | |
| ## Processo de Avaliação | |
| 1. Executar o script `calculation.py`, passando como argumento a pasta onde foram salvos os arquivos `.txt` de cada tarefa: | |
| ```bash | |
| python calculation.py --results_dir path/para/pasta | |
| ``` | |
| 2. O script exibirá os scores totais e os scores individuais para cada tarefa. | |
| 3. Para salvar os resultados, é necessário modificar o código. | |
| 4. O script pega os primeiros caracteres para verificar se a resposta do modelo foi sim ou não para a pergunta, então isso deve ser atentado. | |