speaker_id stringclasses 8
values | speaker_name stringclasses 8
values | original_split stringclasses 2
values | original_index stringlengths 1 3 | text_en stringlengths 3 298 | text_fr stringlengths 6 416 | audio_en audioduration (s) 0.44 21.1 | cloned_audio_fr audioduration (s) 0.86 35.3 | error stringclasses 1
value |
|---|---|---|---|---|---|---|---|---|
speaker_01 | Elena | dev | 0 | Hi, this is Elena and I'm going to be presenting our work, Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and Approaches to Modeling. | Bonjour, je m’appelle Elena et je vais vous présenter notre travail, détecter les emprunts non assimilés en espagnol : un corpus annoté et des approches de modélisation. | |||
speaker_01 | Elena | dev | 1 | So we're going to be covering what lexical borrowing is, the task that we proposed, the dataset that we have released and some models that we explored. | Nous allons donc couvrir ce qu’est l’emprunt lexical, la tâche que nous avons proposée, les données que nous avons publiées et certains modèles que nous avons explorés. | |||
speaker_01 | Elena | dev | 2 | But to begin with, what is lexical borrowing and why it matters as an NLP task? | Mais pour commencer, qu’est-ce que l’emprunt lexical et pourquoi est-ce important en tant que tâche de TAL traitement automatique du langage naturel ? | |||
speaker_01 | Elena | dev | 3 | Well, lexical borrowing is basically the incorporation of words from one language into another language. | Eh bien, l’emprunt lexical est fondamentalement l’incorporation de mots d’une langue dans une autre langue. | |||
speaker_01 | Elena | dev | 4 | For instance, in Spanish we use words that come from English. | Par exemple, en espagnol, nous utilisons des mots qui viennent de l’anglais. | |||
speaker_01 | Elena | dev | 5 | And here you have a few examples, words such as podcast, app, and online crowdfunding, all these are English words that we sometimes use in Spanish. | Et ici, vous avez quelques exemples : des mots tels que podcast, app et crowdfunding en ligne ; tous ces mots sont des mots anglais que nous utilisons parfois en espagnol. | |||
speaker_01 | Elena | dev | 6 | Lexical borrowing is a type of linguistic borrowing um which is basically reproducing in one language patterns of other languages. | L’emprunt lexical est un type d’emprunt linguistique qui consiste essentiellement à reproduire dans une langue des modèles d’autres langues. | |||
speaker_01 | Elena | dev | 7 | And borrowing and code switching have sometimes been compared and described as a continuum, code switching being ah the thing that bilinguals do where they mix two languages at the same time. | Et l’emprunt et l’alternance codique ont parfois été comparés et décrits comme un continuum, l’alternance codique étant la chose que font les bilingues lorsqu’ils mélangent deux langues en même temps. | |||
speaker_01 | Elena | dev | 8 | There are however some differences between lexical borrowing and code-switching. | Il y a cependant quelques différences entre l’emprunt lexical et l’alternance codique. | |||
speaker_01 | Elena | dev | 9 | We're going to be focusing on lexical borrowing. | Nous allons nous concentrer sur l’emprunt lexical. | |||
speaker_01 | Elena | dev | 10 | Code switching is something that is done by bilinguals and by definition the code switches are not integrated into any of the languages in use, whereas lexical borrowing is something that is also done by monolinguals. | L’alternance codique est quelque chose qui est fait par les bilingues et par définition, les alternances codiques ne sont pas intégrées dans l’une des langues utilisées, alors que l’emprunt lexical est quelque chose qui est également fait par les monolingues. | |||
speaker_01 | Elena | dev | 11 | The borrowings will comply with the grammar of the recipient language. | Les emprunts seront conformes à la grammaire de la langue du destinataire. | |||
speaker_01 | Elena | dev | 12 | And borrowings can eventually be integrated into the recipient language. | Et les emprunts peuvent éventuellement être intégrés dans la langue du destinataire. | |||
speaker_01 | Elena | dev | 13 | So why is borrowing an interesting phenomenon? | Alors pourquoi emprunter un phénomène intéressant ? | |||
speaker_01 | Elena | dev | 14 | Well, from the point of view of linguistics, borrowing is a manifestation of of how languages change and how they interact. | Eh bien, du point de vue de la linguistique, l’emprunt est une manifestation de la façon dont les langues changent et comment elles interagissent. | |||
speaker_01 | Elena | dev | 15 | And also lexical borrowings are a source of new words. | Et aussi, les emprunts lexicaux sont une source de nouveaux mots. | |||
speaker_01 | Elena | dev | 16 | Here you have some examples of lexical borrowings that have been incorporated into the Spanish language as new words. | Ici, vous avez quelques exemples d’emprunts lexicaux qui ont été incorporés dans la langue espagnole en tant que nouveaux mots. | |||
speaker_01 | Elena | dev | 17 | In terms of NLP ah borrowings are a common source of out-of-vocabulary words. | En termes de TAL traitement automatique du langage naturel, les emprunts sont une source courante de mots hors-vocabulaire. | |||
speaker_01 | Elena | dev | 18 | And in fact, automatically detecting lexical borrowings ah has proven to be useful for NLP downstream tasks such as parsing, text-to-speech synthesis or machine translation. | Et en effet, détecter automatiquement les emprunts lexicaux s’est avéré utile pour les tâches downstream de TAL traitement automatique du langage naturel telles que l’analyse syntaxique, la synthèse texte-parole ou la traduction automatique. | |||
speaker_01 | Elena | dev | 19 | There has been a growing interest in the influence of English on other languages ah particularly ah related to English lexical borrowings, borrowings which sometimes have been called Anglicisms. | Il y a eu un intérêt croissant pour l’influence de l’anglais sur d’autres langues, en particulier les emprunts lexicaux anglais, des emprunts qui ont parfois été appelés anglicismes. | |||
speaker_01 | Elena | dev | 20 | And here, you have some examples of ah work on automatic detection of borrowings in ah some of these languages. | Et ici, vous avez quelques exemples de travail sur la détection automatique des emprunts dans certaines de ces langues. | |||
speaker_01 | Elena | dev | 21 | So the task that we propose is to detect unassimilated lexical borrowings in Spanish newswire. | Donc, la tâche que nous proposons est de détecter les emprunts lexicaux non assimilés dans le fil d’actualité espagnol. | |||
speaker_01 | Elena | dev | 22 | Which means that we are interested in extracting ah words borrowed from other languages that are being used in Spanish newspapers but that have not been integrated or assimilated into the recipient language. | Ce qui signifie que cela nous intéresse d'extraire les mots empruntés à d’autres langues qui sont utilisés dans les journaux espagnols, mais qui n’ont pas été intégrés ou assimilés dans la langue du destinataire. | |||
speaker_01 | Elena | dev | 23 | So not yet integrated into Spanish. | Donc pas encore intégrés à l’espagnol. | |||
speaker_01 | Elena | dev | 24 | Here you have an example. | Vous avez ici un exemple. | |||
speaker_01 | Elena | dev | 25 | This is a sentence in Spanish: Las prendas bestsellers se estampan con motivos florales, animal print o retales tipo patchwork. | Ceci est une phrase en espagnol : Las prendas bestsellers se estampan con motivos florales, animal print o retales tipo patchwork. | |||
speaker_01 | Elena | dev | 26 | Um, and as you can see, there are three spans of texts which are actually English words like bestseller, animal print and patchwork. | Hum, et comme vous pouvez le voir, il y a trois étendages de textes qui sont en réalité des mots anglais comme bestseller, animal print et patchwork. | |||
speaker_01 | Elena | dev | 27 | These are the type of spans that we are interested in extracting and detecting. | Il s’agit du type d’étendages qu'il nous intéresse d'extraire et de détecter. | |||
speaker_01 | Elena | dev | 28 | There has been previous word on Anglicism detection ah which consists consisted of a CRF model for Anglicism detection on Spanish Newswire. | Il y a eu un mot antérieur sur la détection de l’anglicisme qui consiste en un modèle CRF pour la détection de l’anglicisme sur le fil d’actualité espagnol. | |||
speaker_01 | Elena | dev | 29 | This model achieved an F1 score of eighty six. | Ce modèle a obtenu un score F1 de quatre-vingt-six. | |||
speaker_01 | Elena | dev | 30 | But there were some limitations both um in the dataset and the modeling approach. | Mais il y avait des limites à la fois dans les données et dans l’approche de modélisation. | |||
speaker_01 | Elena | dev | 31 | So the dataset focused exclusively on one source of news, consisted only of headlines. | Ainsi, les données se concentraient exclusivement sur une source d'actualités, ne comprenaient que des titres. | |||
speaker_01 | Elena | dev | 32 | And also there was an overlap in the borrowings that appear in the training set and the test set. | Et il y avait aussi un chevauchement dans les emprunts qui apparaissent dans l’ensemble de formation et l’ensemble de test. | |||
speaker_01 | Elena | dev | 33 | This prevented the assessment of whether the modeling approach could actually generalize to previously unseen borrowings. | Cela a empêché d’évaluer si l’approche de modélisation pouvait effectivement se généraliser aux emprunts précédemment invisibles. | |||
speaker_01 | Elena | dev | 34 | So what we aim is to tackle some of these limitations in the task. | Nous visons donc à nous attaquer à certaines de ces limites dans la tâche. | |||
speaker_01 | Elena | dev | 35 | So to begin we, to begin with, we created a new dataset. | Alors, pour commencer, nous avons créé de nouvelles données. | |||
speaker_01 | Elena | dev | 36 | Ah the aim at a new dataset that was annotated with lexical borrowings and the aim was to create a test set that was as difficult as possible. | Avec de nouvelles données qui ont été annotées avec des emprunts lexicaux, le but était de créer un ensemble de test aussi difficile que possible. | |||
speaker_01 | Elena | dev | 37 | So there would be minimal overlap in words and topics between the training set and test set. | Il y aurait donc un chevauchement minimal entre les mots et les sujets entre l’ensemble de formation et l’ensemble de test. | |||
speaker_01 | Elena | dev | 38 | And as a result, well, the test set comes from sources and dates that we're not seeing in the training set. | Et par conséquent, eh bien, l’ensemble de test provient de sources et de dates que nous ne voyons pas dans l’ensemble de formation. | |||
speaker_01 | Elena | dev | 39 | Here you can see that there's no overlap in the in the time. | Ici, vous pouvez voir qu’il n’y a pas de chevauchement dans le temps. | |||
speaker_01 | Elena | dev | 40 | It's also, the test set is also very borrowing-dense. | L’ensemble de test est aussi très dense en termes d’emprunt. | |||
speaker_01 | Elena | dev | 41 | Just to give you some numbers, if the training set contains six borrowings per each thousand tokens, the test set contained twenty borrowings per each thousand tokens. | Juste pour vous donner quelques chiffres, si l’ensemble de formation contient six emprunts pour mille gages, l’ensemble de test contenait vingt emprunts pour mille gages. | |||
speaker_01 | Elena | dev | 42 | The test set contained as many out of vocabulary words as possible. | L’ensemble de test contenait autant de mots hors-vocabulaire que possible. | |||
speaker_01 | Elena | dev | 43 | In fact, ninety two percent of the borrowings in the test set are OOV. | En effet, quatre-vingt-douze pour cent des emprunts dans l’ensemble de test sont des OOV. | |||
speaker_01 | Elena | dev | 44 | So, they were not seen during training. | Ils n’ont donc pas été vus pendant la formation. | |||
speaker_01 | Elena | dev | 45 | And the corpus consisted basically of a collection of texts that came from different sources of Spanish newspapers. | Et le corpus consistait essentiellement en une collection de textes provenant de différentes sources de journaux espagnols. | |||
speaker_01 | Elena | dev | 46 | And ah it was annotated by hand ah using two tags. | Et il a été annoté à la main en utilisant deux étiquettes. | |||
speaker_01 | Elena | dev | 47 | One for English lexical borrowings which is the majority of lexical borrowings in Spanish, and then the label other for borrowings from other languages. | Une pour les emprunts lexicaux anglais, constituant la majorité des emprunts lexicaux en espagnol, puis l’autre étiquette pour les emprunts d’autres langues. | |||
speaker_01 | Elena | dev | 48 | We use CONLL formats and we used BIO encoding so that we could encode ah single token borrowings such as app or multi token borrowings such as machine learning. | Nous utilisons les formats CoNLL et avons utilisé l’encodage BIO pour pouvoir encoder des emprunts de gages simples tels que app ou des emprunts de gages multiples tels que l'apprentissage automatique. | |||
speaker_01 | Elena | dev | 49 | These are the numbers of the corpus. | Ce sont les chiffres du corpus. | |||
speaker_01 | Elena | dev | 50 | As you can see, it amounts to roughly three hundred seventy thousand tokens. | Comme vous pouvez le voir, il s’élève à environ trois cent soixante-dix mille gages. | |||
speaker_01 | Elena | dev | 51 | And here you have the number of spans that were labeled as English and the spans that were labeled as other borrowings and how many of them were unique. | Et ici, vous avez le nombre d’étendages qui ont été étiquetés comme anglais et les étendages qui ont été étiquetés comme autres emprunts, et combien d’entre eux étaient uniques. | |||
speaker_01 | Elena | dev | 52 | And here you have a couple of examples of the of the set of the dataset. | Et ici, vous avez quelques exemples de l’ensemble des données. | |||
speaker_01 | Elena | dev | 53 | As you can see for instance here, we have ah in the first example, we have the borrowing batch cooking which is a multi word borrowing. | Comme vous pouvez le voir ici, par exemple, nous avons dans le premier exemple le batch cooking emprunteur qui est un emprunt de mots multiples. | |||
speaker_01 | Elena | dev | 54 | And we have annotated it using the BIO um encode. | Et nous l’avons annoté en utilisant l’encodage BIO. | |||
speaker_01 | Elena | dev | 55 | So the BIO was used for words in Spanish so not for words that were not borrowed. | Donc le BIO a été utilisé pour des mots en espagnol, et non pour des mots qui n’ont pas été empruntés. | |||
speaker_01 | Elena | dev | 56 | And here in this second example, you have benching and crash which are also labeled as borrowings from English. | Et ici, dans ce deuxième exemple, vous avez benching et crash qui sont également étiquetés comme des emprunts de l’anglais. | |||
speaker_01 | Elena | dev | 57 | So, once we had the dataset, we explored several models for the task of extracting and detecting these lexical borrowings. | Donc, une fois que nous avons eu les données, nous avons exploré plusieurs modèles pour la tâche d’extraction et de détection de ces emprunts lexicaux. | |||
speaker_01 | Elena | dev | 58 | The first one that we tried was the conditional random field model. | Le premier que nous avons essayé était le modèle de champ aléatoire conditionnel. | |||
speaker_01 | Elena | dev | 59 | Ah, this was the model that had been used on previous work. | Ah, c’était le modèle qui avait été utilisé sur le travail antérieur. | |||
speaker_01 | Elena | dev | 60 | And we used the same handcrafted features from that from those from that work. | Et nous avons utilisé les mêmes fonctions faites main à partir de celles de ce travail. | |||
speaker_01 | Elena | dev | 61 | As you can see, these are the features. | Comme vous pouvez le voir, voici les fonctions. | |||
speaker_01 | Elena | dev | 62 | These are binary features such as the word or the token in upper case? | Ce sont des fonctions binaires telles que le mot ou le gage en majuscules ? | |||
speaker_01 | Elena | dev | 63 | Is it title titlecase? | Est-ce une casse de titre ? | |||
speaker_01 | Elena | dev | 64 | Is it a quotation mark? | Est-ce un guillemet ? | |||
speaker_01 | Elena | dev | 65 | Things like that, which are the type of features that one would expect in a named entity recognition task. | Des choses comme ça, qui sont le type de fonctions que l’on attendrait d’une tâche de named entity recognition. | |||
speaker_01 | Elena | dev | 66 | These are the results that we got. | Voici les résultats que nous avons obtenus. | |||
speaker_01 | Elena | dev | 67 | We obtain fifty five F1 score using the the CRF model with handcrafted features. | Nous obtenons cinquante-cinq points en F1 en utilisant le modèle CRF avec des fonctions faites main. | |||
speaker_01 | Elena | dev | 68 | Which is a huge different difference um compared to the reported F1 score of eighty six, which was the result obtained with the same CRF model, same features but on a different dataset also for Spanish lexical borrowing detection. | Ce qui est une énorme différence comparée au score F1 de quatre-vingt-six rapporté, qui était le résultat obtenu avec le même modèle CRF, les mêmes fonctions mais sur des données différentes également pour la détection de l’emprunt lexical espagnol. | |||
speaker_01 | Elena | dev | 69 | So, this proves that the dataset that we created is more difficult and that we needed to explore more sophisticated models for these tasks. | Donc, cela prouve que les données que nous avons créées sont plus difficiles et que nous devions explorer des modèles plus sophistiqués pour ces tâches. | |||
speaker_01 | Elena | dev | 70 | So, we tested two transformer based models. | Nous avons donc testé deux modèles basés sur la conversion. | |||
speaker_01 | Elena | dev | 71 | We used BETO which is a monolingual BERT model trained for Spanish and also multilingual BERT. | Nous avons utilisé BETO qui est un modèle de Représentations d'encodeurs bidirectionnels à partir de transformateurs monolingue formé pour l’espagnol, mais aussi des Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues. | |||
speaker_01 | Elena | dev | 72 | Both models we use them through the transformers library by HuggingFace. | Nous utilisons les deux modèles à travers la bibliothèque de conversion d’HuggingFace. | |||
speaker_01 | Elena | dev | 73 | These are the results that we got. | Voici les résultats que nous avons obtenus. | |||
speaker_01 | Elena | dev | 74 | As you can see, multilingual BERT performs better than BETO both on the development set and on the test set and across all metrics. | Comme vous pouvez le voir, les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues fonctionnent mieux que les BETO à la fois sur l’ensemble de développement et sur l’ensemble de test, et à travers tous les indicateurs. | |||
speaker_01 | Elena | dev | 75 | Just so we have ah an idea to compare, the CRF model obtained an eighty two. | Juste pour que nous ayons une idée à comparer, le modèle CRF a obtenu un quatre-vingt-deux. | |||
speaker_01 | Elena | dev | 76 | The CRF model obtained a fifty five obtained a fifty five F1 score, whereas the multilingual BERT obtained eighty two, which is a big difference. | Le modèle CRF a obtenu cinquante-cinq points en F1, tandis que les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues ont obtenu quatre-vingt-deux, ce qui est une grande différence. | |||
speaker_01 | Elena | dev | 77 | So, once that we had those results, we asked ourselves another question which is, could we find a BiLSTM-CRF model, feed it with different types of embeddings, embeddings that encode different types of linguistic information and perform outperform the results obtained by transformer based models? | Donc, une fois que nous avons eu ces résultats, nous nous sommes posés une autre question qui est : pourrions-nous trouver un modèle BiLSTM-CRF, l’alimenter avec différents types d’intégrations, des intégrations qui encodent différents types d’informations linguistiques, et dépasser les résultats obtenus par les modèles basés sur la conversion ? | |||
speaker_01 | Elena | dev | 78 | So in order to do so, we ran some preliminary experiments, we we run this by BiLSTM-CRF model using flare library. | Donc, pour ce faire, nous avons effectué quelques expériences préliminaires ; nous avons exécuté ceci par le biais du modèle BiLSTM-CRF en utilisant la bibliothèque Flare. | |||
speaker_01 | Elena | dev | 79 | And we tried experimented with different type of embeddings like transformer-based but also fast-text, character embeddings, and so on. | Et nous avons essayé d’expérimenter différents types d’intégrations comme celles basées sur la conversion, mais aussi des intégrations de caractères, de texte rapide et ainsi de suite. | |||
speaker_01 | Elena | dev | 80 | What we found out was that transformer-based embeddings performed better than non contextualized embeddings, that the combination of English BERT and Spanish BETO embeddings outperform multilingual BERT embeddings. | Ce que nous avons découvert, c’est que les intégrations basées sur la conversion ont obtenu de meilleurs résultats que les intégrations non contextualisées, et que la combinaison d’intégrations de Représentations d'encodeurs bidirectionnels à partir de transformateurs en anglais et de BETO en espagnol dépasse les intégrations de Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues. | |||
speaker_01 | Elena | dev | 81 | And that BPE embeddings produced better F1 and character embeddings produce better recall. | Et aussi, que les intégrations de BPE produisent un meilleur F1 et les intégrations de caractères, un meilleur rappel. | |||
speaker_01 | Elena | dev | 82 | With that in mind, these were the best performing results that we got. | Dans cet esprit, ce sont les meilleurs résultats que nous avons obtenus. | |||
speaker_01 | Elena | dev | 83 | Both models were BiLSTM-CRF models using flare. | Les deux modèles étaient des modèles BiLSTM-CRF utilisant Flare. | |||
speaker_01 | Elena | dev | 84 | One was fed with BETO and BERT embeddings and BPE, and the other one BETO and BERT embeddings and BPE and also character embeddings. | L’un a été alimenté avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs et de BPE, et l’autre avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs, de BPE et aussi des intégrations de caractères. | |||
speaker_01 | Elena | dev | 85 | This last one was the one that produced the highest F1 score on the test set, although the highest score on the development set was obtained by the one without character embeddings. | Ce dernier était celui qui a produit le score F1 le plus élevé sur l’ensemble de test, bien que le score le plus élevé sur l’ensemble de développement ait été obtenu par celui sans intégrations de caractères. | |||
speaker_01 | Elena | dev | 86 | Just ah to bear in mind that the best result that we got with multilingual BERT obtained an F1 of seventy six on the development set and eighty two on the test set. | Gardons juste à l’esprit que le meilleur résultat que nous avons obtenu avec Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues était un F1 de soixante-seize sur l’ensemble de développement et quatre-vingt-deux sur l’ensemble de test. | |||
speaker_01 | Elena | dev | 87 | So this is an improvement compared to those results. | C’est donc une amélioration comparée à ces résultats. | |||
speaker_01 | Elena | dev | 88 | Finally, we asked ourselves another question which was can lexical borrowing detection be framed as transfer learning from language identification in code switching? | Enfin, nous nous sommes posés une autre question qui était de savoir si la détection d’emprunt lexical pouvait être encadrée comme apprentissage par transfert de l’identification de langue dans l’alternance codique ? | |||
speaker_01 | Elena | dev | 89 | So, we run the same BiLSTM-CRF model that we had run using flare, but instead of using these unadapted transformer-based BETO and BERT embeddings, we used code switch embeddings. | Nous exécutons alors le même modèle BiLSTM-CRF que nous avions exécuté en utilisant Flare, mais au lieu d’utiliser ces intégrations de BETO et Représentations d'encodeurs bidirectionnels à partir de transformateurs basées sur la conversion non adaptées, nous avons utilisé les intégrations d’alternance codique. | |||
speaker_01 | Elena | dev | 90 | What are code switch embeddings? | Qu’est-ce que les intégrations d’alternance codique ? | |||
speaker_01 | Elena | dev | 91 | Well these are um embeddings that are have been fine tuned transformer-based embeddings that have been pretrained for language identification on the Spanish English section of the LinCE code switching dataset. | Eh bien, ce sont des intégrations qui ont été des intégrations basées sur la conversion ajustée, qui ont été préformées pour l’identification de langue sur la section anglaise espagnole des données d’alternance codique LinCE. | |||
speaker_01 | Elena | dev | 92 | LinCE is a dataset on code switching that has a section on Spanish English, Spanish English code switching. | LinCE est un ensemble de données sur l’alternance codique qui comporte une section sur l’anglais espagnol, l’alternance codique anglais espagnol. | |||
speaker_01 | Elena | dev | 93 | So we fed our BiLSTM-CRF with code switch embeddings and optionally character embeddings, BPE embeddings and so on. | Nous avons donc alimenté notre BiLSTM-CRF avec des intégrations d’alternance codique et éventuellement des intégrations de caractères, des intégrations de BPE et ainsi de suite. | |||
speaker_01 | Elena | dev | 94 | The best result that we got was eighty four point twenty two, which is the highest across all the models that we tried on the test set. | Le meilleur résultat que nous avons obtenu était quatre-vingt-quatre points vingt-deux, ce qui est le plus élevé parmi tous les modèles que nous avons essayés sur l’ensemble de test. | |||
speaker_01 | Elena | dev | 95 | Although the best result F1 score that we got on the development set, which was seventy nine, was lower than the best result obtained by the BiLSTM-CRF fed with unadapted embeddings. | Bien que le meilleur score F1 que nous ayons obtenu sur l’ensemble de développement, qui était de soixante-dix-neuf, était inférieur au meilleur résultat obtenu par le BiLSTM-CRF alimenté avec des intégrations non adaptées. | |||
speaker_01 | Elena | dev | 96 | So, some conclusions from our work. | Voilà donc les conclusions de notre travail. | |||
speaker_01 | Elena | dev | 97 | We have ah we have produced a new dataset of Spanish newswire that is annotated with unassimilated lexical borrowings. | Nous avons produit de nouvelles données de fil d’actualité espagnol qui sont annotées avec des emprunts lexicaux non assimilés. | |||
speaker_01 | Elena | dev | 98 | This dataset is more borrowing dense and OOV-rich than previous resources. | Ces données sont plus denses en matière d’emprunt et riches en OOV par rapport aux ressources antérieures. | |||
speaker_01 | Elena | dev | 99 | We have explored four types of models for lexical borrowing detection. | Nous avons exploré quatre types de modèles pour la détection d’emprunt lexical. |
End of preview. Expand in Data Studio
README.md exists but content is empty.
- Downloads last month
- 159