Datasets:

Modalities:
Text
Formats:
parquet
Languages:
Italian
ArXiv:
Libraries:
Datasets
pandas
License:
Dataset Viewer
Auto-converted to Parquet Duplicate
text
string
label
int64
Quest'uomo mi ha colpito.
1
Questa donna mi hanno colpito.
0
Questa donna mi ha colpito.
1
Quella donna che accompagnava i bambini mi hanno colpito.
0
Quella donna che accompagnava i bambini mi ha colpito.
1
La donna che mi ha colpito è Giulia.
1
La donna che i ragazzi dicono che mi ha colpito è Giulia.
1
La donna che i vicini credono che i ragazzi dicano che mi ha colpito è Sofia.
1
La donna che i Rossi sostengono che i vicini credono che i ragazzi dicano che mi ha colpito è Paola.
1
La donna che i Rossi sostengono che i vicini credono che i ragazzi dicano che mi hanno colpito è Giulia.
0
Quell'uomo e quella donna mi ha colpito.
0
Quest'uomo ha colpito me.
1
Io sono stato colpito da quest'uomo.
1
Chi mi ha colpito?
1
Chi dici che mi ha colpito?
1
Chi dici che Leonardo sostiene che mi ha colpito?
1
Chi dici che Tommaso sostiene che i vicini pensano che mi abbia colpito?
1
Il mio per preferito è la Divina Commedia.
0
Il mio oggi preferito è la Divina Commedia.
0
Il mio e preferito è la Divina Commedia.
0
Il mio leggo preferito è la Divina Commedia.
0
Il mio esso preferito è la Divina Commedia.
0
Il mio alto preferito è la Divina Commedia.
0
Il mio libro preferito è la Divina Commedia.
1
Il mio poema preferito è la Divina Commedia.
1
Il mio lettura preferito è la Divina Commedia.
0
La mia lettura preferita era la Divina Commedia.
1
La mia lettura preferita è stata la Divina Commedia.
1
Il sindaco parlerà dopo.
1
Il sindaco parlerà dopo l'assessore al bilancio.
1
Lorenzo lo ha portato dentro.
1
Riccardo legge.
1
Tommaso legge il giornale.
1
Alessandro mangia.
1
Lorenzo mangia un gelato.
1
Mattia scrive.
1
Gabriele scrive una lettera.
1
Gabriele ha detto la verità.
1
Dopo il suo discorso, il presidente ebbe una crisi cardiaca.
1
Dopo che ebbe parlato, il presidente ebbe una crisi cardiaca.
1
Francesco sta sapendo la risposta.
0
Lorenzo teme la guerra.
1
Francesco teme.
0
Tommaso beve un bicchiere di vino.
1
Tommaso beve.
1
La guerra teme Francesco.
0
Il giudice ha interrogato il testimone.
1
Il giudice ha interrogato il gatto.
0
Il giudice ha domandato al testimone chi era entrato in casa.
1
Il giudice ha domandato al gatto chi era entrato in casa.
0
Il giudice ha interrogato il testimone ieri sera.
1
Il testimone ha interrogato il giudice ieri sera.
1
Ieri sera il giudice ha interrogato il testimone.
1
Lorenzo ha subito molte torture.
1
Sono arrivati molti ragazzi.
1
Hanno telefonato molti ragazzi.
1
Ne sono arrivati molti.
1
Ne hanno telefonato molti.
0
Ne è ricomparso il padre.
1
Ne ha telefonato il padre.
0
Uno studente partito poco fa.
1
Uno studente parlato poco fa.
0
Partito Lorenzo, ci siamo dati alla pazza gioia.
1
Parlato Andrea, ci siamo dati alla pazza gioia.
0
Alessandro è un grande partitore.
0
Francesco è un grande oratore.
1
I negozianti hanno aumentato i prezzi.
1
Le sue opinioni sono cambiate.
1
Quel filosofo ha cambiato le sue opinioni.
1
Edoardo ne ha salvati molti.
1
Un ragazzo partito poco fa.
1
Un ragazzo salvato poco fa.
1
Il palazzo è crollato.
1
La partenza è prevista per le ore otto.
1
La costruzione della basilica durerà alcuni decenni.
1
Francesco cammina.
1
Alessandro parte.
1
Manzoni ha descritto la peste di Milano.
1
Quel dono era di grande valore.
1
Hanno dato il premio a me.
1
Riccardo ha danneggiato se stesso.
1
Quegli uomini si sono denunciati.
1
Preferiscono Tommaso.
1
Preferiscono lo.
0
Hanno dato il premio a lui.
1
Hanno dato il premio a Gabriele.
1
Hanno dato il premio gli.
0
Gli subito do il libro.
0
Do subito a lui il libro.
1
Glielo do subito.
1
Lo gli do subito.
0
Do subito il libro a lui.
1
Ho incontrato lui e lei.
1
Ho incontrato Lorenzo e Paola.
1
Lo compro e leggo.
0
Lo compro e lo leggo.
1
Ho incontrato lei, non lui.
1
Lo incontro tutti i giorni.
1
L'ho incontrato ieri.
1
Desidero incontrarlo.
1
End of preview. Expand in Data Studio

Itacola

An MTEB dataset
Massive Text Embedding Benchmark

An Italian Corpus of Linguistic Acceptability taken from linguistic literature with a binary annotation made by the original authors themselves.

Task category t2c
Domains Non-fiction, Spoken, Written
Reference https://aclanthology.org/2021.findings-emnlp.250/

How to evaluate on this task

You can evaluate an embedding model on this dataset using the following code:

import mteb

task = mteb.get_tasks(["Itacola"])
evaluator = mteb.MTEB(task)

model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)

To learn more about how to run models on mteb task check out the GitHub repitory.

Citation

If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.


@inproceedings{trotta-etal-2021-monolingual-cross,
  address = {Punta Cana, Dominican Republic},
  author = {Trotta, Daniela  and
Guarasci, Raffaele  and
Leonardelli, Elisa  and
Tonelli, Sara},
  booktitle = {Findings of the Association for Computational Linguistics: EMNLP 2021},
  doi = {10.18653/v1/2021.findings-emnlp.250},
  month = nov,
  pages = {2929--2940},
  publisher = {Association for Computational Linguistics},
  title = {Monolingual and Cross-Lingual Acceptability Judgments with the {I}talian {C}o{LA} corpus},
  url = {https://aclanthology.org/2021.findings-emnlp.250},
  year = {2021},
}


@article{enevoldsen2025mmtebmassivemultilingualtext,
  title={MMTEB: Massive Multilingual Text Embedding Benchmark},
  author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2502.13595},
  year={2025},
  url={https://arxiv.org/abs/2502.13595},
  doi = {10.48550/arXiv.2502.13595},
}

@article{muennighoff2022mteb,
  author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Lo{\"\i}c and Reimers, Nils},
  title = {MTEB: Massive Text Embedding Benchmark},
  publisher = {arXiv},
  journal={arXiv preprint arXiv:2210.07316},
  year = {2022}
  url = {https://arxiv.org/abs/2210.07316},
  doi = {10.48550/ARXIV.2210.07316},
}

Dataset Statistics

Dataset Statistics

The following code contains the descriptive statistics from the task. These can also be obtained using:

import mteb

task = mteb.get_task("Itacola")

desc_stats = task.metadata.descriptive_stats
{
    "test": {
        "num_samples": 975,
        "number_of_characters": 35758,
        "number_texts_intersect_with_train": 0,
        "min_text_length": 7,
        "average_text_length": 36.6748717948718,
        "max_text_length": 146,
        "unique_text": 975,
        "unique_labels": 2,
        "labels": {
            "1": {
                "count": 821
            },
            "0": {
                "count": 154
            }
        }
    },
    "train": {
        "num_samples": 7801,
        "number_of_characters": 280462,
        "number_texts_intersect_with_train": null,
        "min_text_length": 6,
        "average_text_length": 35.9520574285348,
        "max_text_length": 134,
        "unique_text": 7801,
        "unique_labels": 2,
        "labels": {
            "1": {
                "count": 6583
            },
            "0": {
                "count": 1218
            }
        }
    }
}

This dataset card was automatically generated using MTEB

Downloads last month
10

Papers for mteb/Itacola