index
uint32
0
467
audio
audioduration (s)
0.44
20.4
text_en
stringlengths
3
297
text_ar
stringlengths
7
276
text_de
stringlengths
3
373
text_fa
stringlengths
5
296
text_fr
stringlengths
6
416
text_ja
stringlengths
4
148
text_nl
stringlengths
6
325
text_pt
stringlengths
4
323
text_ru
stringlengths
8
348
text_tr
stringlengths
8
357
text_zh
stringlengths
3
107
100
Um. In terms of error analysis, well, recall was a weak point for all models.
ممم. من حيث تحليل الخطأ؛ حسنًا، كان الاستدعاء نقطة ضعف لكل النماذج.
Also. Was die Fehleranalyse betrifft, war der Recall ein Schwachpunkt bei allen Modellen.
ام. از نظر تجزیه و تحلیلخطا خوب بود، اما نقطه ضعف همه مدل‌ها، فراخوانی بود.
Hum. En termes d’analyse des erreurs, eh bien, le rappel était un point faible pour tous les modèles.
ええ。誤差分析で、リコールはすべてのモデルにおいて弱点でした。
Ehm. In termen van fouten analyse, wel, recall was een zwak punt voor alle modellen.
Um. Em termos de análise de erros, a memória foi um ponto fraco para todos os modelos.
Так вот, анализ ошибок показал, что отклик является слабым звеном у всех моделей.
Hmm. Hata analizi açısından bakıldığında geri çağırma tüm modellerin zayıf noktasıdır.
呃。在错误分析方面,调用对于所有模型来说都是一个薄弱环节。
101
Ah, as you can see here, some frequent false negatives include uppercase borrowings, words that exist in both English and Spanish, for instance.
آه، كما ترى هنا، بعض السلبيات الكاذبة المتكررة تشمل الاقتراضات الكبيرة، الكلمات الموجودة في كل من الإنجليزية والإسبانية، على سبيل المثال.
Wie Sie hier sehen können, gehören zu den häufigen falsch-negativen Ergebnissen beispielsweise auch Entlehnungen in Großbuchstaben und Wörter, die es sowohl im Englischen als auch im Spanischen gibt.
همانطور که در اینجا می‌بینید، برخی از منفی‌های نادرست مکرر شامل واژگان وام‌گیری شده با حروف بزرگ و کلماتی است که به عنوان مثال هم در انگلیسی و هم در اسپانیایی وجود دارد.
Ah, comme vous pouvez le voir ici, certains faux négatifs fréquents incluent des emprunts en majuscules, des mots qui existent à la fois en anglais et en espagnol, par exemple.
こちらで確認できるように、大文字の借用単語で、英語とスペイン語の両方に存在するものが、頻繁に検知漏れになっています。
En, zoals u hier kunt zien, omvatten sommige frequente valse negatieven leenwoorden in hoofdletters, woorden die zowel in het Engels als in het Spaans bestaan, bijvoorbeeld.
Como spode ver aqui, alguns falsos negativos frequentes incluem empréstimos em maiúsculas, palavras que existem em inglês e espanhol, por exemplo.
Отсюда нетрудно заметить, что некоторые ложноотрицательные результаты часто включают, к примеру, заимствования в верхнем регистре тех слов, которые существуют как в английском, так и в испанском языке.
Burada görebileceğiniz üzere bazı sık görülen yanlış negatif örnekleri arasında büyük harfle yazılmış ödünçlemeler, hem İngilizce hem de İspanyolcada bulunan sözcükler yer almaktadır.
正如大家在这里看到的,一些常见的假阴性包括大写的借词,例如在英语和西班牙语中都存在的单词。
102
Also interestingly, BPE embeddings seem to improve F1 score.
ومن المثير للاهتمام أيضًا أن تضمينات BPE يبدو أنها تحسن نتيجة F1.
Interessant ist auch, dass BPE-Einbettungen den F1-Core zu verbessern scheinen.
همچنین به نظر می‌رسد جاسازی‌ BPE امتیاز F1 را بهبود می‌بخشد.
Il est également intéressant de noter que les intégrations de BPE semblent améliorer le score F1.
また興味深いことに、BPE埋込みはF1スコアを向上させるようです。
Ook interessant is dat BPE inbeddingen de F1-score lijken te verbeteren.
Também, curiosamente, as integrações BPE parecem melhorar a pontuação F1.
Также интерес представляет тот факт, что BPE-внедрение, по всей видимости, улучшает результат по шкале F1.
Ayrıca ilginç bir şekilde BPE eklemelerinin F1 puanı artırdığı görülmektedir.
同样有趣的是,BPE嵌入似乎提高了F1分数。
103
And character embedding seem to improve recall.
ويبدو أن تضمين الحروف يحسن الاستدعاء.
Und die Einbettung von Zeichen scheint den Recall zu verbessern.
و به نظر می‌رسد که جاسازی کاراکتر، فراخوان را بهبود می‌بخشد.
Et l’intégration de caractères semble améliorer le rappel.
そして、文字埋込みはリコールを改善しているようです。
En karakter inbedding lijkt de herinnering te verbeteren.
E a integração de caracteres parece melhorar a memória.
Кроме того, внедрение символов также может улучшить отклик.
Karakter eklemeleri ise hatırlamayı iyileştiriyor gibi görünmektedir.
而字符嵌入似乎可以改善调用。
104
Which ah it's an interesting finding that perhaps we can explore on future work.
وهو اكتشاف مثير للاهتمام ربما يمكننا استكشافه في العمل المستقبلي.
Das ist eine interessante Erkenntnis, die wir vielleicht in künftigen Arbeiten untersuchen können.
که یک یافته جالب است و شاید بتوانیم در مقالات آینده آن را بررسی کنیم.
Ce qui est une découverte intéressante que peut-être nous pouvons explorer sur les travaux futurs.
これは興味深い発見であり、今後の研究でさらに調査することができるかもしれません。
Dat is een interessante vaststelling die we misschien in de toekomst kunnen onderzoeken.
O que é uma descoberta interessante que talvez possamos explorar em trabalhos futuros.
Это весьма интересная находка, которая может оказаться полезной в дальнейших исследованиях.
Bu ilginç bulguyu gelecekteki çalışmalarımızda araştırabiliriz.
这是一个有趣的发现,也许我们可以在未来的工作中探索。
105
Um. Well, this is everything that I have.
ممم. حسنًا، هذا كل ما لدي.
Also. Das wäre alles, was ich zu sagen habe.
ام. خوب، این تمام مطالبی بود که داشتم.
Hum. Eh bien, c’est tout ce que j’ai.
ええ。これで発表は終わりです。
Ehm. Dit was het dan.
Um. Bem, isto é tudo o que tenho.
Что ж, это все, что я хотела сказать.
Hmm. Evet. Anlatacaklarımın hepsi bu kadar.
呃。嗯,以上就是我要介绍的所有内容。
106
Thank you so much for listening.
شكراً جزيلًا على الإصغاء.
Vielen Dank fürs Zuhören.
خیلی ممنون که گوش دادید.
Merci beaucoup pour votre écoute.
ご清聴いただき、本当にありがとうございました。
Heel erg bedankt voor het luisteren.
Muito obrigado por ouvirem.
Огромное спасибо за внимание.
Dinlediğiniz için çok teşekkür ederim.
非常感谢大家的聆听。
107
My name is Antoine.
اسمى أنطوان.
Mein Name ist Antoine.
اسم من آنتوان است.
Je m’appelle Antoine.
アントワーヌと申します。
Mijn naam is Antoine.
Chamo-me Antoine.
Меня зовут Антуан.
Ben Antoine.
我叫Antoine。
108
I'm a PhD student at the University of Massachusetts Amherst.
أنا طالب دكتوراه في جامعة ماساتشوستس أمهرست.
Ich bin Doktorand an der University of Massachusetts Amherst.
من دانشجوی دکترای دانشگاه ماساچوست آمهرست هستم.
Je suis doctorant à l’Université du Massachusetts à Amherst.
マサチューセッツ大学アマースト校の博士課程の学生です。
Ik ben promovendus aan de Universiteit van Massachusetts Amherst.
Sou estudante de doutoramento na Universidade de Massachusetts Amherst.
Я аспирант Массачусетского университета в Амхерсте.
Massachusetts Amherst Üniversitesi'nde doktora öğrencisiyim.
我是马萨诸塞大学阿默斯特分校的一名博士生。
109
I am presenting our paper KinyaBERT: a Morphology-aware Kinyarwanda Language Model.
أقدم ورقة KinyaBERT الخاصة بنا: نموذج اللغة الكينيرواندية الذي يراعي المورفولوجيا.
Ich stelle unser Paper KinyaBERT vor: ein Morphologie-bewusstes Kinyarwanda-Sprachmodell.
قصد دارم مقاله KinyaBERT خود را ارائه دهم: یک مدل برای زبان رواندایی با توجه به مورفولوژی (تکواژشناسی یا علم صرف کلمات).
Je vous présente notre article KinyaBERT : un modèle de langue en kinyarwanda conscient de la morphologie.
KinyaBERT: 「語形論-キニアルワンダ語の言語モデルを認識する」という論文をご紹介します。
Ik presenteer de paper KinyaBERT: een morfologie-bewust Kinyarwanda taalmodel.
Estou apresentando o nosso artigo KinyaBERT: um language model de Kinyarwanda sensível à morfologia.
Я хочу представить вам работу «KinyaBERT — эффективная морфологическая модель для языка киньяруанда».
Sizlere "KinyaBERT: Morfoloji bilincine sahip Kinyarwanda Dil Modeli" adlı makalemizi sunacağım.
我将介绍我们的论文《KinyaBERT:一种形态学意识的基尼亚卢旺达语语言模型》。
110
Today, I'll talk about the motivation for this research.
سأتحدث اليوم عن الدافع لهذا البحث.
Heute werde ich über den Grund für diese Forschung sprechen.
امروز، در مورد انگیزه این تحقیق صحبت خواهم کرد.
Aujourd’hui, je vais parler de la motivation pour ces recherches.
本日は、この研究の為の動機についてお話しします。
Vandaag zal ik het hebben over de motivatie voor dit onderzoek.
Hoje, vou falar sobre a motivação para esta pesquisa.
Сначала я расскажу о мотивах этого исследования.
Bugün bu araştırma için motivasyonumuzun ne olduğundan bahsedeceğim.
今天,我将谈一谈这项研究的动机。
111
Then I'll present KinyaBERT model architecture in detail.
ثم سأقدم أسلوب بناء نموذج KinyaBERT بالتفصيل.
Dann werde ich die KinyaBERT-Modell-Architektur im Detail vorstellen.
سپس معماری مدل KinyaBERT را با جزئیات ارائه خواهم کرد.
Ensuite, je présenterai en détail l’architecture du modèle KinyaBERT.
その後、KinyaBERTモデルのアーキテクチャの詳細を紹介します。
Daarna zal ik KinyaBERT model architectuur in detail presenteren.
Em seguida, apresentarei a arquitetura do modelo KinyaBERT em detalhe.
Затем представлю в деталях архитектуру модели KinyaBERT.
Daha sonra KinyaBERT modeli mimarisini ayrıntılı olarak anlatacağım.
然后,我将详细介绍KinyaBERT模型的架构。
112
I'll then talk about our experimental results, then finish with some conclusions.
وسأتحدث بعد ذلك عن نتائجنا التجريبية، ثم أنهي ببعض الاستنتاجات.
Ich werde dann über unsere experimentellen Ergebnisse sprechen und zum Schluss einige Schlussfolgerungen darstellen.
در ادامه در مورد نتایج تجربی خود صحبت می‌کنم، و در انتها با چند نتیجه‌گیری ارائه خود را به پایان می‌رسانم.
Je parlerai ensuite de nos résultats expérimentaux, puis je terminerai par quelques conclusions.
そして、実験結果について話し、結論をいくつかお伝えします。
Vervolgens zal ik onze experimentele resultaten bespreken en eindigen met enkele conclusies.
Vou então falar sobre os nossos resultados experimentais, e depois terminar com algumas conclusões.
После этого я расскажу о результатах наших экспериментов и завершу доклад, озвучив некоторые из полученных выводов.
Daha sonra da deney sonuçlarımız hakkında konuşup bazı sonuçlara değinerek sözlerimi sonlandıracağım.
然后我会谈谈我们的实验结果,最后得出一些结论。
113
We all know that recent natural language processing advances have been made possible by the use of pretrained language models such as BERT.
نعلم جميعًا أن تطورات معالجة اللغة الطبيعية الحديثة أصبحت ممكنة باستخدام نماذج لغة مدربة مسبقًا مثل بيرت.
Wir alle wissen, dass die jüngsten Fortschritte bei der NLP durch die Verwendung von vortrainierten Sprachmodellen wie BERT ermöglicht wurden.
همه ما می‌دانیم که پیشرفت‌های اخیر در پردازش زبان طبیعی با استفاده از مدل‌های زبان از پیش آموزش دیده مانند BERT امکان‌پذیر شده است.
Nous savons tous que les progrès récents du traitement du langage naturel ont été rendus possibles par l’utilisation de modèles de langues préformées tels que les Représentations d'encodeurs bidirectionnels à partir de transformateurs.
最近の自然言語処理の進歩は、BERTのような事前訓練された言語モデルの使用によって可能になったことは誰もが知っています。
We weten allemaal dat de recente vooruitgang op het gebied van natuurlijke taalverwerking mogelijk is gemaakt door het gebruik van vooraf getrainde taal modellen zoals BERT.
Todos nós sabemos que os avanços recentes em natural language processing foram possíveis pelo uso de modelos de linguagens pré-treinadas como o BERT.
Всем нам известно, что недавние достижения в области обработки естественного языка стали возможными благодаря использованию таких предварительно обученных языковых моделей, как BERT.
Hepimiz son zamanlarda doğal dil işleme alanındaki ilerlemelerinin BERT gibi önceden eğitilmiş dil modellerinin kullanılmasıyla mümkün hâle geldiğini biliyoruz.
我们都知道,最近的自然语言处理进步是通过使用预训练语言模型(如BERT )实现的。
114
However, there are still a number of limitations.
ومع ذلك، لا يزال هناك عدد من القيود.
Allerdings gibt es immer noch eine Reihe von Einschränkungen.
با این حال، هنوز محدودیت‌هایی در این زمینه وجود دارد.
Cependant, il y a encore un certain nombre de limitations.
しかし、制限はまだいくつもあります。
Er zijn echter nog een aantal beperkingen.
No entanto, ainda há um número de limitações.
Тем не менее, мы все еще сталкиваемся с целым рядом ограничений.
Bununla birlikte hâlâ birkaç sınırlama söz konusudur.
然而,仍然存在许多限制。
115
Due to the complex morphology that is expressed by most morphologically rich languages, the ubiquitous byte pair encoding tokenization algorithm that I used cannot extract the exact subword lexical units, meaning the morphemes, which are needed for effective representation.
بسبب المورفولوجيا المعقدة التي تعبر عنها معظم اللغات الغنية بالمورفولوجيا، فإن خوارزمية ترميز byte pair encoding المنتشر التي استخدمتها لا يمكنها استخراج الوحدات المعجمية للكلمات الفرعية بالضبط، بمعنى المورفيمات، والتي هي بحاجة للتمثيل الفعال.
Aufgrund der komplexen Morphologie, die von den meisten morphologisch reichen Sprachen ausgedrückt wird, kann der allgegenwärtige byte pair encoding-Tokenisierungsalgorithmus, den ich verwendet habe, nicht die genauen lexikalischen Unterwort-Einheiten extrahieren, d. h. die Morpheme, die für eine effektive Repräsentati...
با توجه به مورفولوژی پیچیده‌ای که توسط اکثر زبان‌های غنی از لحاظ مورفولوژی بیان می‌شود، الگوریتم پرکاربرد رمزگذاری جفت بایت کلمه‌سازکه من استفاده کردم نمی‌تواند واحدهای واژگانی زیرکلمه دقیق را استخراج کند که برای بازنمایی مؤثر مورد نیاز هستند.
En raison de la morphologie complexe qui est exprimée par la plupart des langues morphologiquement riches, l’algorithme de marquage byte pair encoding omniprésent que j’ai utilisé ne peut pas extraire les unités lexicales sous-mots exactes, signifiant les morphèmes, qui sont nécessaires pour une représentation efficace...
ほとんどの形態的に豊富な言語によって表現される複雑な形態素のために、私が使用したユビキタスなバイトペア符号化されトークン化されたアルゴリズムは、効果的な表現のために必要な正確なサブ単語の語彙的な単位、つまり 形態素を抽出することができません。
Vanwege de complexe morfologie die de meeste morfologisch rijke talen uitdrukken, kan het alomtegenwoordige bytepaarcodering tokenisering algoritme dat ik heb gebruikt, niet de exacte subwoord lexicaal eenheden, d.w.z. de morfemen, extraheren die nodig zijn voor effectieve representatie.
Devido à complexa morfologia que é expressa pela maioria das linguagens morfologicamente ricas, o omnipresente algoritmo de tokenização de byte pair encoding que usei não consegue extrair as unidades lexicais de subpalavra, o que significa os morfemas, que são necessários para representação eficaz.
Из-за сложной структуры, свойственной большинству морфологически богатых языков, повсеместно используемый алгоритм токенизированной кодировки пар байтов, который я часто использовал, неспособен извлечь точные подсловные лексические единицы, то есть морфемы, необходимые для эффективного представления.
Morfolojik olarak zengin birçok dil tarafından ifade edilen karmaşık morfoloji nedeniyle yaygın olarak her yerde bulunan byte pair encoding belirteç hâline getirme algoritması, etkili temsil için gerekli olan sözcük temelli alt sözcük birimlerini, yani biçimbirimleri tam olarak ayıklayamaz.
由于大多数形态学上丰富的语言所表达的形态学很复杂,我使用的普遍存在的字节对编码标记化算法无法提取有效表达所需的确切子词词汇单位,即意义语素。
116
For example, here we have three Kinyarwanda words that have several morphemes in them, but the BPE algorithms cannot extract them.
على سبيل المثال لدينا هنا ثلاث كلمات كينيرواندية تحتوي على العديد من المورفيمات، لكن خوارزميات BPE لا يمكنها استخراجها.
Hier haben wir zum Beispiel drei Kinyarwanda-Wörter, die mehrere Morpheme enthalten, aber die BPE-Algorithmen können sie nicht extrahieren.
به عنوان مثال، در اینجا ما سه کلمه رواندایی داریم که چندین واژک در آنها وجود دارد، اما الگوریتم‌های BPE نمی‌توانند آنها را استخراج کنند.
Par exemple, ici, nous avons trois mots en kinyarwanda ayant plusieurs morphèmes en eux, mais les algorithmes de BPE ne peuvent pas les extraire.
たとえば、こちらのキニアルワンダ語の3つの単語には形態素がいくつかありますが、BPEアルゴリズムはそれらを抽出できません。
Bijvoorbeeld hier hebben we drie Kinyarwanda woorden die verschillende morfemen bevatten, maar de BPE algoritmen kunnen ze niet extraheren.
Por exemplo, aqui temos três palavras Kinyarwanda que têm vários morfemas nelas, mas os algoritmos BPE não conseguem extraí-los.
Например, в языке киньяруанда существуют три слова, содержащие несколько морфем, которые BPE-алгоритмы неспособны извлечь.
Örneğin burada içinde birkaç biçimbirim bulunan üç Kinyarwanda sözcüğümüz var ancak BPE algoritmaları bunları ayıklayamaz.
例如,这里我们有三个基尼亚卢旺达语单词,其中有几个语素,但BPE算法无法提取它们。
117
This is because some morphological rules produce different surface forms that hide the exact lexical information, and BPE, which is solely based on the surface forms, does not have access to this lexical model.
وذلك لأن بعض القواعد المورفولوجية تنتج أشكالًا سطحية مختلفة تخفي المعلومات المعجمية الدقيقة، و لا يمكن لـ BPE، الذي يعتمد على الأشكال السطحية فقط، الوصول إلى هذا النموذج المعجمي.
Das liegt daran, dass einige morphologische Regeln verschiedene Oberflächenformen erzeugen, die die genauen lexikalischen Informationen verbergen. BPE stützt sich aber nur auf die Oberflächenformen und hat so keinen Zugang zu diesem lexikalischen Modell.
این امر به این دلیل است که برخی از قوانین مورفولوژیکی شکل‌های سطحی مختلفی تولید می‌کنند که اطلاعات واژگانی دقیق را پنهان کرده و BPE که صرفاً بر اساس فرم‌های سطحی است، به این مدل واژگانی دسترسی ندارد.
En effet, certaines règles morphologiques produisent différentes formes de surface qui cachent l’information lexicale exacte, et le BPE, qui est uniquement basé sur les formes de surface, n’a pas accès à ce modèle lexical.
これは、形態的な規則が正確な語彙情報を隠すさまざまな表面形態を生成し、表面形態のみに基づいたBPEがこの語彙モデルにアクセスできないためです。
Dit komt omdat sommige morfologische regels verschillende oppervlaktevormen produceren die de exacte lexicale informatie verbergen, en BPE, die uitsluitend gebaseerd is op de oppervlaktevormen, geen toegang heeft tot dit lexicale model.
Isto ocorre porque algumas regras morfológicas produzem diferentes formas de superfície que escondem a informação lexical exata, e o BPE, que é baseado exclusivamente nas formas de superfície, não tem acesso a este modelo lexical.
Это связано с тем, что некоторые правила морфологии приводят к созданию различных поверхностных форм, скрывающих точную лексическую информацию, и BPE, основанная исключительно на поверхностных формах, не имеет доступа к этой лексической модели.
Çünkü bazı morfolojik kurallar, sözcük temelli bilginin tamamını gizleyen farklı yüzey formları üretir ve yalnızca yüzey formlarını esas alan BPE'nin bu sözcük temelli modele erişimi yoktur.
这是因为某些形态化规则产生不同的表面形式,隐藏了确切的词汇信息,而完全基于表面形式的BPE无法访问此词汇模型。
118
The second challenge is that even if one had access to an oracle morphological analyzer, replacing BPE tokens with morphemes is not enough to express the morphological compositionality.
التحدي الثاني هو أنه حتى لو كان لدى المرء إمكانية الوصول إلى المحلل المورفولوجي لدى أوراكل، فإن استبدال رموز BPE بـ المورفيمات لا يكفي للتعبير عن نمذجة التركيبة المورفولوجية.
Die zweite Herausforderung besteht darin, dass, selbst wenn man Zugang zu einem morphologischen Analysator von Oracle hätte, würde es nicht ausreichen, das BPE-Token durch Morpheme zu ersetzen, um die morphologische Kompositionalität auszudrücken.
چالش دوم این است که حتی اگر کسی به آنالیزگر مورفولوژیکی اوراکل دسترسی داشته باشد، جایگزین کردن لغات BPE با واژک برای بیان مورفولوژی ترکیب کافی نیست.
Le deuxième défi est que même si l’on avait accès à un analyseur morphologique oracle, remplacer les gages de BPE par des morphèmes n’est pas suffisant pour exprimer la compositionnalité morphologique.
2つ目の課題は、Oracle形態素アナライザーにアクセスできたとしても、BPEトークンを形態素に置き換えるだけでは、形態的構成の可能性を表現するのに十分ではないということです。
De tweede uitdaging is dat zelfs als men toegang had tot een oracle morfologisch analyser, het vervangen van BPE tokens door morfemen niet voldoende is om de morfologisch compositionaliteit tot uitdrukking te brengen.
O segundo desafio é que, mesmo que se tivesse acesso a um morphological analyzer oráculo, a substituição de tokens BPE por morfemas não é suficiente para expressar a composicionalidade morfológica.
Вторая проблема заключается в том, что даже при наличии доступа к морфологическому анализатору Oracle замены токенов BPE на морфемы недостаточно для выражения морфологической композиционности.
İkinci zorluk, kişinin Oracle morfolojik analyzer erişimi olsa bile, BPE belirteçlerini biçimbirimler ile değiştirmek, morfolojik tümlemeyi ifade etmek için yeterli değildir.
第二个挑战是,即使人们能够使用甲骨文形态化分析器,用语素替换BPE令牌也不足以表达形态学组合性。
119
A third gap in the research is that new pretrained language models are most often evaluated on high resource languages.
وتتمثل الفجوة الثالثة في البحث في أن نماذج اللغة المدربة مسبقًا الجديدة غالبًا ما يتم تقييمها على لغات عالية الموارد.
Eine dritte Lücke in der Forschung besteht darin, dass neue vortrainierte Sprachmodelle meist bei ressourcenintensiven Sprachen evaluiert werden.
سومین شکاف در تحقیق این است که مدل‌های جدید زبان از پیش آموزش دیده اغلب بر روی زبان‌هایی ارزیابی می‌شوند که منابع زیادی دارند.
Une troisième lacune dans les recherches est que les nouveaux modèles de langue préformée sont le plus souvent évalués sur des langues à ressources élevées.
研究における3番目のギャップは、新しい事前訓練された言語のモデルがリソースが豊富な言語で最も頻繁に評価されることです。
Een derde hiaat in het onderzoek is dat nieuwe vooraf getrainde taal modellen meestal worden geëvalueerd op high resource talen.
Uma terceira lacuna na pesquisa é que os novos modelos de linguagens pré-treinadas são mais frequentemente avaliados em linguagens com elevados recursos.
Третьим пробелом в исследованиях является то, что новые предварительно обученные языковые модели чаще всего оцениваются с точки зрения широко используемых языков.
Araştırmadaki üçüncü boşluk, yeni önceden eğitilmiş dil modellerinin sıklıkla yüksek kaynaklı diller üzerinden değerlendirilmesidir.
这次研究涉及的第三个空白是,新的预训练语言模型通常是在高资源语言上进行评估的。
120
And we need to assess their applicability on low resources and diverse languages as well.
ونحن بحاجة إلى تقييم قابليتها للتطبيق على اللغات منخفضة الموارد والمتنوعة كذلك.
Wir müssen ihre Anwendbarkeit auch bei geringen Ressourcen und in verschiedenen Sprachen bewerten.
و ما باید کاربرد آنها را در زبان‌های با منابع کم و متنوع نیز ارزیابی کنیم.
Et nous devons évaluer leur applicabilité sur des ressources faibles et diverses langues également.
また、リソースがあまりない、多様な言語への適用性も評価する必要があります。
En we moeten hun toepasbaarheid ook beoordelen op lage middelen en diverse talen.
E também precisamos de avaliar a sua aplicabilidade com recursos baixos e linguagens diversas.
Однако их необходимо примеривать и к широкому спектру малоресурсных языков.
Bizim de bu modelleri düşük kaynaklı ve muhtelif diller üzerinde uygulanabilirliklerini değerlendirmemiz gerekiyor.
我们还需要评估它们在低资源和多样化语言上的适用性。
121
Therefore, we present KinyaBERT, which is a simple but effective adaptation of the BERT architecture that is meant to more effectively handle morphologically rich languages.
لذلك، نقدم KinyaBERT، وهو تكيف بسيط ولكنه فعال لبنية BERT التي تهدف إلى التعامل بشكل أكثر فعالية مع اللغات الغنية مورفولوجيًا.
Daher präsentieren wir KinyaBERT. Das ist eine einfache, aber effektive Anpassung der BERT-Architektur, die für den effektiveren Umgang mit morphologisch reichen Sprachen gedacht ist.
بنابراین، KinyaBERT را ارائه می‌دهیم، که اقتباسی ساده اما کارامد از معماری BERT بوده و به‌منظور مدیریت مؤثرتر زبان‌های غنی از نظر مورفولوژیکی است.
Par conséquent, nous présentons KinyaBERT, qui est une adaptation simple mais efficace de l’architecture des Représentations d'encodeurs bidirectionnels à partir de transformateurs destinée à gérer plus efficacement les langues morphologiquement riches.
したがって、形態素が豊富な言語をより効果的に扱うために、BERTアーキテクチャをシンプルかつ効果的に適応させたKinyaBERTを発表します。
Daarom presenteren we KinyaBERT, wat een eenvoudige maar effectieve aanpassing is van de BERT architectuur die bedoeld is om effectiever om te gaan met morfologisch rijke talen.
Assim, apresentamos o KinyaBERT, que é uma adaptação simples mas eficaz da arquitetura BERT, e que se destina a lidar com mais eficácia com linguagens morfologicamente ricas.
По этой причине мы хотим представить KinyaBERT — простую, но эффективную адаптацию архитектуры BERT, предназначенную для более эффективной обработки морфологически богатых языков.
Dolayısıyla morfolojik olarak zengin dilleri daha etkili bir şekilde kavraması amaçlanan BERT mimarisinin basit ama etkili bir uyarlaması olan KinyaBERT'i sunuyoruz.
所以,我们提出KinyaBERT,它是BERT架构的一个简单但有效的改编,旨在更有效地处理形态上丰富的语言。
122
We evaluate KinyaBERT on Kinyarwanda, a low resource morphologically rich language, which is spoken by more than twelve million people across Eastern and Central Africa.
نقوم بتقييم KinyaBERT على اللغة الكينيرواندية، وهي لغة منخفضة الموارد غنية مورفولوجيًا، ويتحدث بها أكثر من اثني عشر مليون شخص في جميع أنحاء شرق ووسط أفريقيا.
Wir evaluieren KinyaBERT mit Kinyarwanda, einer ressourcenarmen und morphologisch reichen Sprache, die von mehr als zwölf Millionen Menschen in Ost- und Zentralafrika gesprochen wird.
ما KinyaBERT را در زبان رواندایی ارزیابی می کنیم، که زبانی است با منابع کم اما از نظر مورفولوژی یک زبان غنی است، و زبان بیش از دوازده میلیون نفر در سراسر آفریقای شرقی و مرکزی است که به آن تکلم می‌کنند.
Nous évaluons KinyaBERT sur le kinyarwanda, une langue low resource riche morphologiquement, qui est parlée par plus de douze millions de personnes à travers l’Afrique de l’Est et centrale.
低リソースで形態素が豊富な言語のキニアルワンダ語で、KinyaBERTを評価します。キニアルワンダ語は東部および中央アフリカで1,200万人以上の方々が話す言語です。
We evalueren KinyaBERT op Kinyarwanda, een lage bron morfologisch rijke taal, die gesproken wordt door meer dan twaalf miljoen mensen in Oost- en Centraal-Afrika.
Avaliamos o KinyaBERT sobre o Kinyarwanda, um idioma morfologicamente rico de low resource, que é falado por mais de doze milhões de pessoas em toda a África Oriental e Central.
Мы оцениваем KinyaBERT с точки зрения малоресурсного, но морфологически богатого языка киньяруанда, на котором говорят более двенадцати миллионов жителей восточной и центральной Африки.
KinyaBERT'i Doğu ve Orta Afrika'da on iki milyondan fazla insan tarafından konuşulan düşük kaynaklı morfolojik olarak zengin bir dil olan Kinyarwanda üzerinde değerlendiriyoruz.
我们评估了基尼亚卢旺达语的KinyaBERT,这是一种低资源形态上丰富的语言,在东非和中非有超过1200万人使用。
123
The input to the model is either a sentence or a document.
الإدخال في النموذج إما جملة أو مستند.
Die Eingabe für das Modell ist entweder ein Satz oder ein Dokument.
ورودی به مدل، یک جمله یا یک سند است.
La saisie du modèle est soit une phrase, soit un document.
モデルへの入力は、文または文章のいずれかです。
De input bij het model is een zin of een document.
A entrada para o modelo é uma frase ou um documento.
В эту модель вводится предложение или документ.
Modele, cümle ya da bir belge şeklinde giriş yapılmaktadır.
模型的输入是句子或文档。
124
For example here, we have John twarahamubonye biradutangaza, which means we were surprised to find John there.
على سبيل المثال، لدينا هنا عبارة John twarahamubonye biradutangaza، والتي تعني أننا فوجئنا بالعثور على جون هناك.
Zum Beispiel haben wir hier den Satz: „John twarahamubonye biradutangaza“. Das bedeutet: „Wir waren überrascht, John dort anzutreffen.“
به عنوان مثال در اینجا، ما «John twarahamubonye biradutangaza» را داریم، به معنی اینکه «از دیدن جان در آنجا شگفت‌زده شدیم».
Par exemple, ici, nous avons John twarahamubonye biradutangaza, qui signifie « nous avons été surpris de trouver John là-bas ».
たとえばこちらには、「John twarahamubonye biradutangaza」という文章があります。「私たちはそこでジョンを見つけてびっくりした」という意味です。
Bijvoorbeeld hier hebben we John twarahamubonye biradutangaza, wat betekent dat we verrast waren om John daar te vinden.
Por exemplo, temos John twarahamubonye biradutangaza, o que significa que ficámos surpreendidos por encontrar o John lá.
К примеру, рассмотрим предложение: «John twarahamubonye biradutangaza». Его перевод звучит так: «Мы удивились, увидев там Джона».
Örneğin burada "John'u orada bulduğumuza şaşırdık" anlamına gelen "John twarahamubonye biradutangaza" cümlesi var.
例如这句,John twarahamubonye biradutangaza,意思是,我们惊讶地发现John在那里。
125
As you can see, Kinyarwanda words contains several morphemes that contain different information in them.
كما ترون، تحتوي كلمات اللغة الكينيرواندية على العديد من المورفيمات التي تحتوي على معلومات مختلفة فيها.
Wie Sie sehen können, enthaltenWörter im Kinyarwanda mehrere Morpheme, die unterschiedliche Informationen enthalten.
همانطور که می‌بینید، کلمات رواندایی حاوی چندین واژک هستند که اطلاعات متفاوتی در آنهاست.
Comme vous pouvez le voir, les mots en kinyarwanda comprennent plusieurs morphèmes qui renferment différentes informations.
ご覧のとおり、キニアルワンダ語の単語には、異なる情報を含む形態素がいくつか含まれています。
Zoals je kunt zien, bevat Kinyarwanda woorden verschillende morfemen die verschillende informatie bevatten.
Como se pode ver, as palavras em Kinyarwanda contém vários morfemas que contêm diferentes informações neles.
Как можно заметить, слова на языке киньяруанда могут содержать несколько морфем, несущих в себе различную информацию.
Gördüğünüz üzere Kinyarwanda sözcükleri farklı bilgiler içeren birkaç biçimbirimler barındırır.
正如大家所看到的,基尼亚卢旺达语单词包含几个语素,每个语素包含不同的信息。
126
Therefore, in our model, we pass this sentence or a document to a morphological analyzer.
لذلك، في نموذجنا، نمرر هذه الجملة أو المستند إلى محلل مورفولوجي.
Daher übergeben wir in unserem Modell diesen Satz oder ein Dokument an einen morphologischen Analysator.
بنابراین، در مدل خود، این جمله یا یک سند را به تحلیل‌گر مورفولوژی منتقل می‌کنیم.
Par conséquent, dans notre modèle, nous faisons passer cette phrase ou un document à un analyseur morphologique.
したがって、私たちのモデルでは、この文または文章を形態素アナライザーに渡します。
Daarom geven we in ons model deze zin of een document door aan een morfologische analyzer.
Assim, no nosso modelo, passamos esta frase ou um documento por um morphological analyzer.
Таким образом, с помощью нашей модели мы передаем это предложение или документ морфологическому анализатору,
Bu nedenle modelimizde bu cümleyi veya bir belgeyi, morfolojik analyzer'na aktarırız.
所以,在我们的模型中,我们将这个句子或文档传递给形态分析器。
127
Which then generates morphemes contained in each of the words.
والذي يقوم بعد ذلك بتوليد المورفيمات الموجودة في كل كلمة من الكلمات.
Dieser erzeugt dann Morpheme, die in allen Wörtern enthalten sind.
سپس تحلیل‌گر واژک‌های موجود در هر یک از کلمات را ایجاد می‌کند.
Ce qui engendre alors des morphèmes contenus dans chacun des mots.
それからそれぞれの単語に含まれる形態素を生成します。
Die vervolgens morfemen voortbrengt die in elk van de woorden zijn vervat.
Que então gera morfemas contidos em cada uma das palavras.
который затем генерирует морфемы, содержащиеся в каждом слове.
Daha sonra her bir sözcüğün içindeki biçimbirimler ortaya çıkar.
然后生成包含在每个单词中的词素。
128
The morphemes usually are made of the stem and zero or more affixes.
وعادة ما تكون المورفيمات مستمدة من الكلمة الجذعية ودون لواحق أو ببعض اللواحق.
Die Morpheme setzen sich in der Regel aus dem Stamm und null oder mehr Affixen zusammen.
واژک‌ها معمولاً از یک ریشه تشکیل شده و ممکن است شامل پسوند یا بدون پسوند باشند.
Les morphèmes sont généralement constitués du radical et de zéro ou plus d’affixes.
形態素は通常、語幹とゼロ以上の接尾辞で構成されます。
De morfemen zijn meestal gemaakt van de stengel en nul of meer affixen.
Os morfemas são geralmente compostos pelo radical e zero ou mais afixos.
Как правило, морфемы состоят из основы и одного или нескольких аффиксов.
Biçimbirimler genellikle kök ve sıfır veya daha fazla ekten meydana gelir.
语素通常由词干和零个或多个词缀组成。
129
The affixes may indicate tense, aspect, subject or object in verbs, and more often relates to the Bantu noun class for subjects and objects.
قد تشير اللواحق إلى زمن، وجانب، وفاعل أو مفعول في الأفعال، وغالبًا ما تتعلق بفئة اسم البانتو للفاعل والمفعول.
Die Affixe können Zeitform, Aspekt, Subjekt oder Objekt in den Verben anzeigen und beziehen sich häufiger auf die Substantivklasse der Bantu für Subjekte und Objekte.
پسوندها ممکن است زمان، نمود، فاعل یا مفعول بودن را در افعال نشان دهند، و برای فاعل و مفعول، اغلب به دسته اسم زبان بانتو مربوط می‌شوند.
Les affixes peuvent indiquer le temps, l’aspect, le sujet ou l’objet dans les verbes, et se rapportent plus souvent à la classe nom bantoue pour les sujets et les objets.
接尾辞は、時制、アスペクト、動詞の主語または目的語を示すことができ、主語および目的語のためのバントゥー語の名詞クラスに関連することが多いです。
De affixen kunnen duiden op gespannenheid, aspect, onderwerp of object in werkwoorden, en hebben vaker betrekking op de Bantu zelfstandig naamwoord klasse voor onderwerpen en objecten.
Os afixos podem indicar tempo, aspeto, sujeito ou objeto em verbos, e relacionam-se, muitas vezes, com a classe de substantivo em Bantu para sujeitos e objetos.
Эти аффиксы могут указывать на время, какой-то аспект, субъект или объект глагола и чаще всего привязаны к субъектам или объектам, выраженным существительными на языке банту.
Ekler; fiillerde zaman, özellik, özne veya nesneye işaret edebilir ve daha sıklıkla özneler ve nesneler için Bantu isim sınıfıyla ilişkilidir.
词缀可以表示动词中的时态、方面、主语或宾语,更多时候与班图语的名词类主语和宾语有关。
130
The morphological analyzer also produces a part of speech tag for each of the words.
ينتج morphological analyzer أيضًا جزءًا من علامة الكلام لكل من الكلمات.
Der morphologische Analysator erzeugt auch einen Teil eines Sprach-Tags für jedes der Wörter.
تحلیل‌گر مورفولوژیکی همچنین بخشی از برچسب گفتار را برای هر یک از کلمات تولید می‌کند.
L’analyseur morphologique produit également une étiquette de partie de discours pour chacun des mots.
形態素アナライザーは、各単語の為のスピーチタグの一部も生成します。
De morfologische analyzer produceert ook een deel van spraak tag voor elk van de woorden.
O morphological analyzer também produz uma parte da etiqueta de fala para cada uma das palavras.
Морфологический анализатор также выводит тег части речи для каждого из этих слов.
Morfolojik analyzer ayrıca her sözcük için bir sözcük türü etiketi üretir.
形态分析器还为每个单词生成语音标签的一部分。
131
After this step, we make embeddings for the spee- for the part of speech tags.
بعد هذه الخطوة، نقوم بعمل تضمينات ل spee- لجزء من علامات الكلام.
Nach diesem Schritt erstellen wir Einbettungen für den Teil der Sprach-Tags.
پس از این مرحله، جاسازی برای spee- به عنوان بخشی از برچسب گفتار را انجام می‌دهیم.
Après cette étape, nous faisons des intégrations pour le dis- pour les étiquettes de la partie de discours.
このステップの後、スピーチタグの一部の為に埋込みを用意します。
Na deze stap maken we inbeddingen voor de spee- voor het deel van spraak tags.
Após este passo, fazemos integrações para a parte das etiquetas de fala.
Выполнив этот шаг, мы производим внедрение тегов для частей речи,
Bu adımdan sonra sözcük türü etiketleri için eklemeler yaparız.
在这一步之后,我们为语音标签的部分进行嵌入。
132
Embeddings for the affixes.
التضمينات للّواحق.
Einbettungen für die Affixe.
جاسازی برای پسوندها.
Intégrations pour les affixes.
接尾辞の為の埋込みです。
Inbeddingen voor de affixen.
Integrações para os afixos.
а также внедрение аффиксов
Ekler için eklemeler.
词缀的嵌入。
133
And embeddings for the stem.
والتضمينات للكلمة الجذعية.
Einbettungen für den Stamm.
و جاسازی برای ریشه کلمه.
Et intégrations pour le radical.
そして語幹の為の埋込みです。
En inbeddingen voor de stam.
E integrações para o radical.
и внедрение основы.
Ve kök için eklemeler.
以及词干的嵌入。
134
These are the morphology level, these are the morphology level embeddings.
هذا هو المستوى المورفولوجي، وهذه هي تضمينات المستوى المورفولوجي.
Dies sind die Einbettungen auf Morphologie-Ebene.
اینها سطوح مورفولوژی هستند، اینها جاسازی سطح مورفولوژی هستند.
Il s’agit du niveau morphologique ; il s’agit des intégrations de niveau morphologique.
これらは、語形論レベルであり、語形論レベルの埋込みです。
Dit zijn de morfologie niveaus, dit zijn de morfologie niveaus insluitingen.
Estes são o nível de morfologia, estes são o nível de integrações de morfologia.
Это морфологический уровень, то есть морфологический уровень внедрения.
Bunlar morfoloji seviyesindeki eklemelerdir.
这些是形态学层面的,这些是形态学层面的嵌入。
135
We then pass these embeddings through a morphology encoder, which is a small transformer encoder that is applied to each word independently.
نمرر بعد ذلك هذه التضمينات من خلال مشفر مورفولوجيا، وهو مشفر محول صغير يتم تطبيقه على كل كلمة بشكل مستقل.
Anschließend durchlaufen diese Einbettungen einen Morphologie-Encoder, der ein kleiner Transformer-Encoder ist, der auf jedes Wort unabhängig angewendet wird.
سپس این جاسازی‌ها را از میان یک رمزگذار مورفولوژی عبور می‌دهیم، که یک رمزگذار مبدل کوچک است که برای هر کلمه به‌طور مستقل اعمال می‌شود.
Nous faisons ensuite passer ces intégrations à travers un encodeur morphologique, qui est un petit encodeur de conversion appliqué à chaque mot indépendamment.
次に、これらの埋込みを語形エンコーダに渡します。これは、各単語に独立して適用される小さなトランスフォーマーエンコーダです。
Vervolgens halen wij deze inbeddingen door een morfologie-encoder, een kleine transformer encoder die op elk woord afzonderlijk wordt toegepast.
Em seguida, passamos estas integrações através de um codificador de morfologia, que é um pequeno transformer encoder que é aplicado a cada palavra independentemente.
Далее мы передаем эти внедрения в морфологический кодировщик — небольшой кодировщик-трансформер, применяемый по отдельности к каждому слову.
Daha sonra eklemeleri; her sözcüğe bağımsız olarak uygulanan küçük bir dönüştürücü kodlayıcısı olan morfoloji kodlayıcısından geçiririz.
然后,我们将这些嵌入通过形态学编码器传递,这是一个独立应用于每个单词的小型转换器编码器。
136
The output of the are the vectors that are contextualized with the morphological information at each word.
ويكون الإخراج عبارة عن متجهات سياقية مع المعلومات المورفولوجية الموجودة في كل كلمة.
Ausgegeben werden die Vektoren, die mit den morphologischen Informationen bei jedem Wort kontextualisiert werden.
خروجی شامل بردارهایی است که با اطلاعات مورفولوژیکی در هر کلمه، بافت آن مشخص می‌شود.
Les résultats sont les vecteurs contextualisés avec les informations morphologiques à chaque mot.
そして、各単語で形態的情報がついている、文脈で理解できるベクトルが出力されます。
De output van de zijn de vectoren die gecontextualiseerd zijn met morfologisch informatie bij alle woordinbeddingen.
A saída do são os vetores que são contextualizados com a informação morfológica em cada palavra.
В результате мы получаем вектора, контекстуализированные морфологической информацией каждого слова.
Çıktılar; her sözcükteki morfolojik bilgiler ile bağlam kazandırılmış vektörlerdir.
它们的输出是情境化的向量,每个单词都有形态化的信息。
137
Now, we perform composition where the morphological embeddings corresponding to part of speech and stem are concatenated together.
والآن، نقوم بالتركيب حيث يتم تسلسل التضمينات المورفولوجية المطابقة لجزء من الكلام والكلمة الجذعية معًا.
Nun führen wir eine Komposition durch, bei der die morphologischen Einbettungen, die der Sprache und dem Wortstamm entsprechen, miteinander verkettet werden.
اکنون، ما ترکیب‌بندی را در جایی انجام می‌دهیم که جاسازی مورفولوژیکی مطابق با بخشی از گفتار و ریشه است که به هم پیوسته باشند.
Maintenant, nous effectuons une composition où les intégrations morphologiques correspondant à une partie de discours et au radical sont concaténées ensemble.
それでは、スピーチと語幹に対応する形態的埋込みが連結される合成を行います。
Nu voeren we een compositie uit waarbij morfologisch inbeddingen die overeenkomen met deel van spraak en stam worden samengevoegd.
Agora, realizamos a composição onde as integrações morfológicas correspondentes à parte da fala e radical são encadeadas em conjunto.
После этого мы производим композицию с объединением морфологических внедрений с соответствующими частями речи и основами.
Şimdi sözcük türüne ve köke karşılık gelen morfolojik eklemelerin bir araya getirildiği derlemeyi gerçekleştiririz.
现在,我们进行组合,其中与语音部分相对应的形态化嵌入与词干连接在一起。
138
We further concat we further concatenate them with another stem embedding at the sentence level.
كما نجمعهم مع تضمين آخر لكلمة جذعية على مستوى الجملة.
Wir verketten sie mit einer weiteren Einbettung des Stammes auf der Ebene des Satzes.
در ادامه آنها را با یک جاسازی ریشه دیگر در سطح جمله الحاق می‌کنیم.
Nous les concaténons en outre avec une autre intégration du radical au niveau de la phrase.
さらに、文章レベルで他の語幹の埋込みを合成します。
We voegen ze verder samen met een andere stam inbedding op zin niveau.
Encadeamos ainda mais com outra radical incorporação no nível sentença.
Далее мы производим их дальнейшее объединение с другими внедренными основами на уровне предложений.
Ayrıca bunları onları cümle düzeyinde başka bir kök eklemesi ile birleştiririz.
我们进一步将它们与句子级别的另一个词干嵌入连接起来。
139
Then we form an input to the main sentence or document encoder.
ثم نشكل إدخال إلى الجملة الرئيسية أو مشفر المستند.
Dann erstellen wir eine Eingabe für den Hauptsatz oder den Dokument-Encoder.
سپس یک ورودی برای رمزگذار جمله اصلی یا سند تشکیل می‌دهیم.
Ensuite, nous formons une saisie à la phrase principale ou l’encodeur de document.
次に、メインの文または文章エンコーダへの入力を形成します。
Vervolgens vormen we een input naar de hoofd zin of document encoder.
Em seguida, formamos uma entrada para o codificador principal da frase ou do documento.
Затем мы вводим предложение или документ в основной кодировщик.
Daha sonra ana cümle veya belge kodlayıcı için bir girdi oluştururuz.
然后,我们对主句子或文档编码器形成一个输入。
140
The final output are contextualized embeddings that can be used for downstream NLP tasks.
ويكون الإخراج النهائي هو التضمينات السياقية التي يمكن استخدامها لمهام معالجة اللغة الطبيعية للبيانات المنخفضة.
Die Endausgabe sind kontextualisierte Einbettungen, die für nachgelagerte NLP-Aufgaben verwendet werden können.
خروجی نهایی، جاسازی وابسته با بافت است که می‌تواند برای کارهای NLP در پایین‌دست استفاده شود.
Le résultat final donne des intégrations contextualisées qui peuvent être utilisées pour les tâches de TAL traitement automatique du langage naturel downstream.
最終的な出力は、下流自然言語処理タスクに使用できる文脈で理解できる埋込みです。
De uiteindelijke output zijn gecontextualiseerde inbeddingen die kunnen worden gebruikt voor downstream NLP taken.
A saída final são integrações contextualizadas que podem ser usadas para tarefas NLP posteriores.
В конечном итоге мы получаем контекстуализированное внедрение, которое можно использовать для подчиненных NLP-задач.
Nihai çıktı, aşağı yönlü Doğal Dil İşleme görevleri için kullanılabilen bağlam kazandırılmışeklemeler şeklindedir.
最终输出是情境化嵌入,可用于下游自然语言处理任务。
141
For a morphological analyzer, we use finite state two level morphology principles with custom implementation that is tailored to the Kinyarwanda language.
بالنسبة إلى أي محلل مورفولوجي، نستخدم مبادئ مورفولوجيا ذات مستويين محدودين مع تنفيذ مخصص مصمم خصيصًا للّغة الكينيرواندية.
Für einen morphologischen Analysator verwenden wir Morphologie-Prinzipien mit endlichen Automaten auf zwei Ebenen und mit einer maßgeschneiderten Implementierung, die auf die Sprache Kinyarwanda zugeschnitten ist.
برای یک تحلیل‌گر مورفولوژیکی، ما از اصول مورفولوژی دو سطحی با حالت محدود همراه با پیاده‌سازی سفارشی استفاده می‌کنیم که برای زبان رواندایی طراحی شده است.
Pour un analyseur morphologique, nous utilisons des principes de morphologie à deux niveaux à états finis avec une mise en œuvre personnalisée adaptée à la langue kinyarwanda.
形態素アナライザーでは、キニアルワンダ語に合わせてカスタム実装された有限状態2レベル語形論原則を使用します。
Voor een morfologische analyzer gebruiken we eindige toestand twee niveau morfologie principes met aangepaste implementatie die is afgestemd op de Kinyarwanda taal.
Para um morphological analyser, usamos princípios de morfologia de estado finito de dois níveis com implementação personalizada que é adaptada ao idioma Kinyarwanda.
В морфологическом анализаторе мы применяем двухуровневые морфологические принципы с индивидуально настроенной реализацией, адаптированной к языку киньяруанда.
Morfolojik analyzer için Kinyarwanda diline göre uyarlanmış özel uygulama ile sonlu iki seviye morfoloji ilkelerini kullanırız.
对于形态分析器,我们使用有限状态二级形态学原则,并根据基尼亚卢旺达语语言定制实现。
142
We effectively model the morphology of all Kinyarwanda words, including verbals, nouns, demonstrative and possessive pronouns, numerals, and others.
نقوم بنمذجة مورفولوجيا جميع الكلمات الكينيرواندية، بما في ذلك الشفهيات، والأسماء، والضمائر التوضيحية وضمائر الملكية، والأرقام، وغيرها.
Wir modellieren die Morphologie aller Wörter auf Kinyarwanda, einschließlich der Verben, Substantive, Demonstrativ- und Possessivpronomen, Numerale und andere.
مورفولوژی همه کلمات رواندایی، از جمله فعل، اسم، ضمیر اشاره و ضمایر مالکیت، اعداد و غیره را با کارایی خوب مدل‌سازی می‌کنیم.
Nous modélisons efficacement la morphologie de tous les mots en kinyarwanda, y compris les verbes, les noms, les pronoms démonstratifs et possessifs, les chiffres et autres.
口語、名詞、指示代名詞、所有代名詞、数字などを含むすべてのキニアルワンダ語の語形を効果的にモデリングします。
Wij modelleren effectief de morfologie van alle Kinyarwanda woorden, inclusief werkwoorden, zelfstandige naamwoorden, aanwijzende en bezittelijke voornaamwoorden, telwoorden en andere.
Modelamos efetivamente a morfologia de todas as palavras em Kinyarwanda, incluindo verbos, substantivos, pronomes demonstrativos e possessivos, numerais e outros.
Мы эффективно моделируем морфологию всех слов языка киньяруанда, включая глаголы, существительные, указательные и притяжательные местоимения, числительные и т. п.
Fiilimsiler, isimler, işaret ve iyelik zamirleri, sayılar ve diğer birimler de dâhil olmak üzere tüm Kinyarwanda sözcüklerinin morfolojisini etkili bir şekilde modelleriz.
我们有效地对所有基尼亚卢旺达语单词的形态进行建模,包括动词、名词、指示和所有格代词、数字等等。
143
We use an unsupervised part of speech tagging algorithm.
نحن نستخدم جزءًا غير خاضع للإشراف من خوارزمية وضع علامات الكلام.
Wir verwenden einen nicht überwachten Teil eines Sprach-Tagging-Algorithmus.
ما از بخش الگوریتم برچسب گذاری گفتار که بدون نظارت است استفاده می‌کنیم.
Nous utilisons une partie non supervisée d’algorithme de classification de discours.
スピーチタグ付けアルゴリズムの監視なしの部分を使用します。
We gebruiken een unsupervised spraak tagging algoritme.
Usamos uma parte não supervisionada de algoritmo de rotulagem de fala.
Мы используем безнадзорный алгоритм маркировки частей речи.
Konuşma etiketleme algoritmasının denetimsiz kısmını kullanırız.
我们使用语音标记算法的无监督部分。
144
A first order factored model is used to account for morphology probability, basically the probability that is assigned by the morphological analyzer.
يتم استخدام نموذج عامل من الترتيب الأول لحساب احتمالية المورفولوجيا، وهي في الأساس الاحتمالية التي يتم تعيينها من قبل المحلل المورفولوجي.
Ein faktorisiertes Modell erster Ordnung wird verwendet, um die Morphologie-Wahrscheinlichkeit zu berücksichtigen, d. h. die Wahrscheinlichkeit, die vom morphologischen Analysator zugewiesen wird.
یک مدل فاکتوری مرتبه اول برای محاسبه احتمال مورفولوژی استفاده می‌شود، که اساساً احتمالی است که توسط تحلیل‌گر مورفولوژیکی اختصاص داده می‌شود.
Un modèle factorisé de premier ordre est utilisé pour rendre compte de la probabilité morphologique, essentiellement la probabilité attribuée par l’analyseur morphologique.
一次因子モデルを使用して、語形の確率、つまり形態素アナライザーによって割り当てられた確率を説明します。
Een eerste orde factor model wordt gebruikt om rekening te houden voor morfologie waarschijnlijkheid, in principe de waarschijnlijkheid die wordt toegewezen door de morfologische analyzer.
É usado um modelo integrado de primeira ordem para contabilizar a probabilidade de morfologia, basicamente a probabilidade que é atribuída pelo morphological analyzer.
Факторная модель первого уровня используется для оценки морфологической вероятности, то есть вероятности, назначаемой морфологическим анализатором.
Temel olarak morfolojik analyzer tarafından atanan olasılık olan morfoloji olasılığını hesaba katmak içinbirinci dereceden değişkenlere ayrılmış bir model kullanılır.
一阶因子模型用于说明形态学概率,基本上是由形态分析器分配的概率。
145
We also take into consideration the part of speech tag precedence as well as the syntactic agreements that are present in the in the input words.
ونأخذ في الاعتبار أيضًا جزء أسبقية علامة الكلام بالإضافة إلى الاتفاقيات النحوية الموجودة في كلمات الإدخال.
Wir berücksichtigen auch den Vorrang der Sprach-Tags sowie die syntaktischen Vereinbarungen, die in den eingegebenen Wörtern vorhanden sind.
ما همچنین بخشی از اولویت برچسب گفتار و همچنین توافقات نحوی را که در ورودی کلمات وجود دارد، در نظر می‌گیریم.
Nous prenons également en considération la priorité de l’étiquette de la partie de discours ainsi que les accords syntaxiques qui sont présents dans les mots de saisie.
また、スピーチタグの優先と、入力単語に存在する構文合意も考慮します。
We houden ook rekening met het deel van spraak tag-prioriteit evenals de syntactische overeenkomsten die aanwezig zijn in de input woorden.
Também levamos em consideração a parte da precedência da etiqueta de fala, bem como os acordos sintáticos que estão presentes nas palavras de entrada.
Кроме того, мы учитываем приоритетность маркеров частей речи, а также синтаксическую согласованность вводимых слов.
Ayrıca, giriş sözcüklerindeki söz dizimsel uyumlulukların yanı sıra sözcük türü etiketinin öncelik sıralamasını de dikkate alırız.
我们还考虑了部分语音标签的优先顺序,以及输入单词中存在的句法协议。
146
The part of speech tagger uses a bidi bidirectional inference which improves upon the more often used Viterbi algorithm for decoding.
يستخدم جزء علامة الكلام استدلال ثنائي الاتجاه والذي يحسن من خوارزمية Viterbi الأكثر استخدامًا ل فك التشفير.
Der Teil des Sprach-Taggers verwendet eine bidirektionale Inferenz, die den häufiger verwendeten Viterbi-Algorithmus für die Dekodierung verbessert.
بخشی از برچسب گفتار از یک bidi دو جهته استنتاج استفاده می‌کند که از طریق الگوریتم پرکاربرد Viterbi برای رمزگشایی، عملکرد آن بهتر می‌شود.
Le marqueur de partie de discours utilise une inférence bidirectionnelle bidi qui améliore le plus souvent l’algorithme Viterbi utilisé pour le décodage.
スピーチのタグ付け部は、双方向推論を使っており、より頻繁に使われるデコーディングの為のビタビアルゴリズムよりも優れています。
Het deel van spraak tagger maakt gebruik van een bidi bidirectionele interferentie die de vaker gebruikte Viterbi algoritme voor decodering verbetert.
A parte de marcador de fala usa uma inferência bidirecional que melhora o mais frequentemente usado algoritmo para descodificar Viterbi.
Маркировщик частей речи использует двунаправленный вывод, улучшающий результаты наиболее часто используемого для декодирования алгоритма Витерби.
Sözcük türü etiketleyicisi, Viterbi algoritmasının kod çözme için daha sık kullanılmasıyla daha da iyileşen bir iki yönlü iki yönlü çıkarım kullanır.
部分语音标记器使用bidi双向推理,这种方法改进了更经常用于解码的Viterbi算法。
147
A few remarks here for positional encoding.
وترد بعض الملاحظات هنا للتشفير الموضعي.
Hier noch ein paar Anmerkungen zur Positionskodierung.
چند نکته برای رمزگذاری موقعیتی.
Quelques remarques ici pour l'encodage positionnel.
ここで、位置的エンコーディングの為の注意事項を少し紹介します。
Een paar opmerkingen hier voor positionele codering.
Algumas observações aqui para positional encoding.
И я бы хотел здесь сделать несколько замечаний, касающихся позиционного кодирования.
Bu noktada positional şifreleme için birkaç açıklama yapılmıştır.
这里有一些注释对于位置编码。
148
One, the morphology encoder does not use any positional encoding.
أولًا، مشفر المورفولوجيا لا يستخدم أي تشفير موضعي.
Erstens verwendet der Morphologie-Encoder keine Positionskodierung.
اول، رمزگذار مورفولوژی از هیچ رمزگذاری موقعیتی استفاده نمی‌کند.
Premièrement, l’encodeur morphologique n’utilise aucun encodage positionnel.
1つ目は、形態素エンコーダは位置的エンコーダを使用しないことです。
Ten eerste gebruikt de morfologie encoder geen positiecodering.
Um, o codificador de morfologia não usa qualquer positional encoding.
Во-первых, морфологический кодировщик не использует позиционное кодирование.
Birincisi, morfoloji kodlayıcısı herhangi bir positional kodlama kullanmaz.
第一,形态学编码器不使用任何位置编码。
149
This is because each of the morphemes occupies a known slot in the morphological model.
وذلك لأن كل من المورفيمات تحتل خانة معروفة في النموذج المورفولوجي.
Das liegt daran, dass jedes der Morpheme einen bekannten Platz im morphologischen Modell einnimmt.
این امر به این دلیل است که هر یک از واژک‌ها یک شکاف مشخص در مدل مورفولوژیکی را اشغال می‌کنند.
C’est parce que chacun des morphèmes occupe un emplacement connu dans le modèle morphologique.
これは、各形態素が形態的モデル内の既知のスロットを占有しているためです。
Dit komt omdat elk van de morfemen een bekende plaats inneemt in het morfologisch model.
Isto ocorre porque cada um dos morfemas ocupa um espaço conhecido no modelo morfológico.
Это связано с тем, что каждая морфема занимает уже известную позицию в морфологической модели.
Çünkü biçimbirimlerin her biri, morfolojik modelde bilinen yapısal bir boşluğu doldurur.
这是因为每个语素在形态化模型中占据了一个已知的位置。
150
Therefore, positional information is inherent when the morphemes are given.
لذلك، تكون المعلومات الموضعية متأصلة عندما يتم إعطاء المورفيمات.
Daher ist die positionelle Information inhärent, wenn die Morpheme gegeben sind.
بنابراین، اطلاعات موقعیت، در زمانی که واژک‌ها داده شوند بصورت ذاتی هستند.
Par conséquent, l’information positionnelle est inhérente lorsque les morphèmes sont donnés.
したがって、位置情報は、形態素が与えられたときに内在します。
Daarom is positionele informatie inherent wanneer de morfemen worden gegeven.
Assim, a informação posicional é inerente quando os morfemas são dados.
Следовательно, позиционная информация уже внедрена в тех случаях, когда предоставлены морфемы.
Bu nedenle biçimbirimler verildiğinde konum bilgisi kendiliğinden var olur.
因此,当给出语素时,位置信息是固有的。
151
Second, the sentence encoder uses the so-called untied relative positional embeddings, which have been recently published at ICLR conference.
ثانيًا، يستخدم مشفر الجملة ما يسمى بـ التضمينات الموضعية النسبية غير المقيدة، والتي تم نشرها مؤخرًا في مؤتمر ICLR.
Zweitens verwendet der Satz-Encoder die so genannten ungebundenen, relativ positionellen Einbettungen, die kürzlich auf der ICLR-Konferenz veröffentlicht wurden.
دوم، رمزگذار جمله از جاسازی‌های اصطلاحاً نسبی غیر متصل استفاده می‌کند که اخیراً در کنفرانس ICLR منتشر شده است.
Deuxièmement, l’encodeur de phrase utilise les intégrations positionnelles relatives dites non liées, qui ont été récemment publiées lors de la conférence ICLR.
第二に、文エンコーダは、最近ICLRカンファレンスで公開されたいわゆる不拘束の相対位置の埋込みを使用します。
Ten tweede maakt de zin encoder gebruik van de zogenaamde ongebonden relatieve positionele inbeddingen, die onlangs zijn gepubliceerd op ICLR -conferentie.
Em segundo lugar, o codificador de frases usa os chamados integrações posicionadas relativas desassociadas, que foram recentemente publicadas na conferência ICLR.
Во-вторых, кодировщик предложений использует так называемое несвязанное относительно-позиционное внедрение. Эта тема была освещена в недавно опубликованных материалах конференции ICLR.
İkincisi, cümle kodlayıcı, yakın zamanda ICLR konferansında yayımlanan ve bağsız göreli konumlu olarak adlandırılan eklemeleri kullanır.
第二,句子编码器使用所谓的不受约束的相对位置嵌入,这是最近在ICLR会议上发表的。
152
This positional embeddings essentially disentangles positional correlations from token to token attention computation.
وتفصل هذه التضمينات الموضعية بشكل أساسي الارتباطات الموضعية من حساب انتباه رمز إلى رمز.
Diese positionellen Einbettungen entkoppeln im Wesentlichen positionelle Korrelationen von Token hin zu einer Token-Aufmerksamkeitsberechnung.
این جاسازی‌های موقعیتی اساساً همبستگی موقعیتی را از محاسبات کلمه‌ای به محاسبات با توجه به کلمه جدا می‌کند.
Ces intégrations positionnelles démêlent essentiellement les corrélations positionnelles de calcul d’attention gage à gage.
この位置的埋込みは、トークンからトークン アテンション計算へ、位置相関を本質的に分離します。
Deze positionele inbedding ontwart in wezen positionele correlaties van token naar token aandacht berekening.
Estas integrações posicionais essencialmente desassociam as correlações posicionais de token para computação de atenção de tokens.
Это позиционное внедрение, по сути, распутывает клубок позиционных корреляций от токена к токену, уделяя их вычислению особое внимание.
Bu konumsal eklemeler, aslında belirteçten belirtece dikkat hesaplamasından konumsal korelasyonları çıkarır.
这种位置嵌入本质上将位置相关性从令牌分离到令牌注意力计算。
153
Similar to BERT, we use a masked language model pre-training objective.
ومماثلة لـ بيرت، نستخدم هدف قبل التدريب لmasked language model.
Ähnlich wie BERT verwenden wir ein maskiertes Sprachmodell als Vortrainingsziel.
مشابه با BERT، ما از یک هدف پیش‌آموزشی با مدل زبان نقاب‌دار استفاده می‌کنیم.
De manière similaire aux Représentations d'encodeurs bidirectionnels à partir de transformateurs, nous utilisons un objectif de préformation de modèle de langue masqué.
BERTと同様に、マスク言語モデル事前訓練の目的を使用します。
Vergelijkbaar met BERT gebruiken we een gemaskerd taalmodel pre-training -doelstelling.
De forma semelhante ao BERT, usamos um objetivo de pretraining masked language model.
Как и в модели BERT, мы преследуем цель по предварительному обучению замаскированной языковой модели.
BERT'e benzer şekilde bir maskelenmiş dil modeli ön eğitim hedefi kullanırız.
与BERT类似,我们使用掩码语言模型预训练目标。
154
Essentially we have to predict both the stem and the affixes that are associated with the words.
وفي الأساس علينا أن نتنبأ بكل من الكلمة الجذعية واللواحق التي ترتبط بـ الكلمات.
Im Wesentlichen müssen wir sowohl den Stamm als auch die Affixe, aus denen die Wörter bestehen, vorhersagen.
اساساً ما باید هم ریشه و هم پسوندهایی را که با واژه‌ها مرتبط هستند پیش‌بینی کنیم.
Essentiellement, nous devons prévenir à la fois le radical et les affixes qui sont associés aux mots.
本質的には、単語に関連付けられている語幹と接尾辞の両方を予測する必要があります。
In wezen moeten we zowel de stengel als de affixen voorspellen die geassocieerd worden met de woorden.
Essencialmente, temos de prever tanto o radical como os afixos que estão associados às palavras.
По сути, мы хотим научиться предсказывать основы и аффиксы, связанные со словами.
Esasında hem kökü hem de sözcükler ile ilişkili ekleri tahmin etmemiz gerekir.
从本质上讲,我们必须预测与单词相关的词干和词缀。
155
During pre-training, fifteen percent of all words are considered for prediction, of which eighty percent are masked, ten percent are swapped with random words, and ten percent are left unchanged.
وخلال مرحلة ما قبل التدريب، تعتبر خمسة عشر في المئة من جميع الكلمات للتنبؤ، منها ثمانين في المئة مقنعة، ويتم تبديل عشرة في المئة بكلمات عشوائية، وترك عشرة في المئة دون تغيير.
Während des Vortrainings werden fünfzehn Prozent aller Wörter für die Vorhersage berücksichtigt, von denen achtzig Prozent maskiert, zehn Prozent mit zufälligen Wörtern ausgetauscht und zehn Prozent unverändert gelassen werden.
در طی زمان پیش‌آموزش، پانزده درصد از کل کلمات برای پیش‌بینی در نظر گرفته می‌شود، که هشتاد درصد آن پوشانده شده، ده درصد با کلمات تصادفی تعویض می‌شوند و ده درصد بدون تغییر باقی می‌مانند.
Pendant la préformation, quinze pour cent de tous les mots sont considérés pour la prévention, dont quatre-vingt pour cent sont masqués, dix pour cent sont échangés avec des mots aléatoires et dix pour cent sont laissés inchangés.
事前訓練では、すべての単語の15%が予測と見なされ、そのうち80%がマスクされ、10%がランダムな単語と交換され、10%は変更されません。
Tijdens pre-training wordt vijftien procent van alle woorden beschouwd voor voorspelling, waarvan tachtig procent wordt gemaskeerd, tien procent wordt geruild met willekeurige woorden en tien procent blijft ongewijzigd.
Durante o pretraining, quinze por cento de todas as palavras são consideradas para previsão, das quais oitenta por cento são mascaradas, dez por cento são trocadas por palavras aleatórias e dez por cento permanecem inalteradas.
При предварительном обучении предсказанию используется пятнадцать процентов всех слов, восемьдесят процентов которых замаскировано, десять процентов заменено на случайные слова, а остальные десять процентов остались без изменений.
Ön eğitim sırasında tüm sözcüklerin yüzde on beşi tahmin için kullanılır; bunların yüzde sekseni maskelenir, yüzde onu rastgele sözcüklerle değiştirilir ve yüzde onu değişmeden kalır.
在预训练期间,所有单词的15%被认为用于预测,其中80%被屏蔽,10%与随机单词交换,10%保持不变。
156
For affix prediction, we face some multi label classification problem.
للتنبؤ باللواحق، نواجه بعض مشكلات التسمية متعددة التصنيف.
Für die Vorhersage der Affixe stehen wir vor einem Multi-Label-Klassifikationsproblem.
برای پیش‌بینی پسوند، با مشکل طبقه‌بندی چند برچسبی روبرو هستیم.
Pour la prévention d’affixe, nous faisons face à un problème de classification multi-étiquettes.
接辞の予測では、複数のラベルの分類に関する問題に直面します。
Voor affix voorspelling krijgen we te maken met een multi-label classificatie probleem.
Para previsão de afixos, enfrentamos alguns problemas de classificação de rótulo múltiplo.
При предсказании аффиксов мы сталкиваемся с проблемой многозначной классификации.
Ek tahminine yönelik çok etiketli sınıflandırma sorunu ile karşılaşıyoruz.
对于词缀预测,我们面临一些多标签分类问题。
157
For this, we either group together affixes into a fixed number of sets and predict the set as a class label.
لهذا، نقوم إما بجمع اللواحق معًا في عدد ثابت من المجموعات ونتنبأ بالمجموعة كتصنيف فئة.
Daher fassen wir entweder die Affixe zu einer festen Reihe von Gruppen zusammen und sagen die Gruppe als Klassenlabel voraus.
برای حل این مشکل، یا پسوندها را در یک چند مجموعه مشخص گروه‌بندی می کنیم و مجموعه را به عنوان یک برچسب کلاس پیش‌بینی می‌کنیم.
Pour cela, nous regroupons les affixes ensemble dans un nombre fixe d’ensembles et prévenons l’ensemble comme une étiquette de classe.
この為には、接辞を固定した数でセットグループ化し、クラスラベルとしてセットを予測するか、
Voor dit, groeperen wij ofwel affixen in een vast aantal sets en voorspellen de set als klassenlabel.
Para isso, agrupamos afixos num número fixo de conjuntos e prevemos o conjunto como um rótulo de classe.
Чтобы решить эту проблему, мы либо группируем аффиксы в фиксированное число множеств и предсказываем метки для каждого множества как для класса,
Bunun için ekleri sabit sayıda setler içerisinde gruplandırıyoruz ve seti bir sınıf etiketi olarak tahmin ederiz.
为此,我们要么将词缀组合成固定数量的集合,并将该集合预测为一个类标签。
158
The other option is to predict the affix probability vector.
والخيار الآخر هو التنبؤ باحتمالية اللاحقة المتجه.
Die andere Möglichkeit ist die Vorhersage der Affixe durch einen Wahrscheinlichkeitsvektor.
یا به عنوان گزینه دیگر، بردار احتمال پسوند را پیش‌بینی می‌کنیم.
Ou bien, l’autre option est de prévenir le vecteur de probabilité d’affixe.
もしくは、接辞の確率ベクトルを予測することです。
De andere optie is om de affixwaarschijnlijkheid vector te voorspellen.
A outra opção é prever o vetor de probabilidade de afixo.
либо предсказываем вектор вероятности аффикса.
Diğer seçenek, ekleme olasılığı vektörünü tahmin etmektir.
另一种选择是预测词缀概率向量。
159
We evaluate both of these approaches in our experiments.
ونقوم بتقييم كل من هذين النهجين في تجاربنا.
Wir bewerten beide Ansätze in unseren Experimenten.
ما هر دوی این رویکردها را در آزمایش‌های خود ارزیابی می‌کنیم.
Nous évaluons ces deux approches dans nos expériences.
この2つのアプローチを実験で計測しています。
We evalueren beide benaderingen in onze experimenten.
Nós avaliamos ambas as abordagens nas nossas experiências.
В наших экспериментах мы оцениваем оба подхода.
Bu yaklaşımların her ikisini de deneylerimizde değerlendiriyoruz.
我们在实验中对这两种方法进行了评估。
160
We pre-train KinyaBERT on about two and half gigabytes of Kinyarwanda text, and compare it to three baseline models.
نقوم بتدريب KinyaBERT مسبقًا على حوالي اثنين ونصف غيغابايت من النصوص الكينيرواندية، ومقارنتها مع ثلاثة نماذج أساسية.
Wir trainieren KinyaBERT mit etwa zweieinhalb Gigabyte an Text in Kinyarwanda vor und vergleichen es mit drei Modellen der Baseline.
ما KinyaBERT را روی حدود دو و نیم گیگابایت متن رواندایی از قبل آموزش می‌دهیم و آن را با سه مدل پایه مقایسه می‌کنیم.
Nous préformons KinyaBERT sur environ deux giga-octets et demi de texte kinyarwanda, et le comparons à trois modèles de base.
KinyaBERTを約2.5ギガバイトのキニアルワンダのテキストで事前訓練し、3つのベースラインモデルと比較します。
We trainen KinyaBERT op ongeveer twee en een halve gigabyte Kinyarwanda tekst en vergelijken het met drie baseline modellen.
Pré-treinamos o KinyaBERT com cerca de dois gigabytes e meio de texto Kinyarwanda e comparamos com três modelos de linhas de referência.
И мы предварительно обучаем KinyaBERT примерно на двух с половиной гигабайтах текста на языке киньяруанда и сравниваем его с тремя базовыми моделями.
KinyaBERT'i yaklaşık iki buçuk gigabayt büyüklüğünde Kinyarwanda metin üzerinden önceden eğitiyor ve üç temel modelle karşılaştırıyoruz.
我们用大约2.5千兆字节的基尼亚卢旺达语文本对KinyaBERT进行预训练,并将其与三个基线模型进行比较。
161
One is a multilingual model called XLM-R, that is trained on a large text corpora that is made of multiple languages.
أحدها هو نموذج متعدد اللغات يسمى XLM-R، يتم تدريبه على مجاميع ذات نص كبير معدة من لغات متعددة.
Eines davon ist ein mehrsprachiges Modell namens XLM-R, das mit großen Textkorpora trainiert wird, die aus mehreren Sprachen bestehen.
یکی از آنها مدل چند زبانه به نام XLM-R است که بر روی یک متن طولانی که از چندین زبان ساخته شده آموزش داده شده است.
L’un est un modèle multilingue appelé XLM-R, qui est formé sur un grand corpus de texte composé de plusieurs langues.
一つは多言語モデルで、XLM-Rと呼ばれ、複数の言語で作られた大規模なテキストコーパスで訓練されています。
Een daarvan is een meertalig model genaamd XLM-R, dat is getraind op een grote tekst corpora die is gemaakt van meerdere talen.
Um deles é um modelo de vários idiomas chamado XLM-R, que é treinado num grande texto de corpora linguística composto por várias linguagens.
Одной из этих моделей является многоязычная XLM-R, обученная с помощью обширного корпуса текстов, включающего в себя несколько языков.
Bunlardan biri, XLM- R adı verilen çok dilli modeldir ve birden fazla dilden oluşan büyük metin derlemleri üzerine eğitilmiştir.
一个是称为XLM-R的多语言模型,它是在由多种语言组成的大型文本语料库上训练的。
162
The other two baselines are pretrained on the same Kinyarwanda text using either the byte pair encoding algorithm or using morphological analysis without using the two tier transformer encoder architecture.
ويتم تدريب النموذجين الأساسيين الآخرين مسبقًا على نفس النصوص الكينيرواندية باستخدام إما خوارزمية تشفير زوج البايت أو باستخدام التحليل المورفولوجي دون استخدام بنية مشفر المحول ذات المستويين.
Die beiden anderen Baselines werden mit demselben Text auf Kinyarwanda vortrainiert, wobei entweder der byte pair encoding-Algorithmus oder die morphologische Analyse ohne die zweistufige Transformer-Encoder-Architektur verwendet wird.
دو مدل دیگر بر روی یک متن رواندایی با استفاده از الگوریتم رمزگذاری جفت بایت یا با استفاده از تحلیل مورفولوژیکی بدون استفاده از معماری دو ردیفه رمزگذار مبدل آموزش داده می‌شوند.
Les deux autres bases sont préformées sur le même texte kinyarwanda en utilisant soit l’algorithme de byte pair encoding, soit l’analyse morphologique sans utiliser l’architecture encodeur de conversion à deux niveaux.
他の2つのベースラインは、同じキニアルワンダ語のテキスト上で事前訓練されたものです。バイトペアエンコーディングアルゴリズムを使用するか、2層トランスフォーマーエンコーダアーキテクチャを使用せずに形態分析を使用して、事前訓練されます。
De andere twee baselines zijn vooraf getraind op dezelfde Kinyarwanda tekst met ofwel de bytepaarcodering algoritme of met morfologische analyse zonder gebruik te maken van de tweelaags transformer encoder architectuur.
As outras duas linhas de referência são pré-treinadas com o mesmo texto Kinyarwanda usando o algoritmo byte pair encoding ou usando morphological analysis sem usar a arquitetura de dois níveis de transformer encoder.
Две другие базовые модели предварительно обучены на одном и том же киньяруандском тексте с использованием либо алгоритма кодировки пар байтов, либо морфологического анализа без двухуровневой архитектуры трансформерного кодировщика.
Diğer iki taban çizgisi, iki katmanlı dönüştürücü kodlayıcı mimarisini kullanmadan ya byte pair encoding algoritması ya da morfolojik analiz kullanılarak aynı Kinyarwanda metin üzerine önceden eğitilmiştir.
另外两个基线是使用字节对编码算法或使用形态分析而不使用两层转换器编码器架构对同一基尼亚卢旺达语文本进行预训练的。
163
All models are configured in the base architecture, which is about between a hundred and a hundred and ten million parameters, with Kinyarwanda with KinyaBERT using the least number of parameters.
يتم تكوين جميع النماذج في البنية الأساسية، والتي تتراوح بين مائة ومائة وعشرة ملايين من المعلمات، مع استخدام الكينيرواندية مع KinyaBERT باستخدام أقل عدد من المعلمات.
Alle Modelle sind in der Basisarchitektur konfiguriert, die etwa hundert bis hundertzehn Millionen Parameter umfasst, wobei Kinyarwanda mit KinyaBERT die geringste Anzahl von Parametern verwendet.
همه مدل‌ها در معماری پایه پیکربندی شده‌اند که بین صد تا صد و ده میلیون پارامتر است، و در زبان رواندایی با KinyaBERT از کمترین تعداد پارامترها استفاده می‌کند.
Tous les modèles sont configurés dans l’architecture de base, qui est d’environ cent à cent et dix millions de paramètres, avec le kinyarwanda avec KinyaBERT utilisant le plus petit nombre de paramètres.
すべてのモデルは1億から1億1千万のパラメータからなる基本のアーキテクチャで構成され、最小の数のパラメータを使用したKinyaBERTを持つキニアルワンダ語を使用します。
Alle modellen zijn geconfigureerd in de basisarchitectuur, die ongeveer tussen honderd en honderd en tien miljoen parameters ligt, waarbij Kinyarwanda met KinyaBERT de minste aantal parameters gebruikt.
Todos os modelos são configurados na arquitetura base, que é de cerca de cento e cento e dez milhões de parâmetros, com Kinyarwanda com KinyaBERT usando o menor número de parâmetros.
Все модели настроены на базовую архитектуру, включающую от ста до ста десяти миллионов параметров, причем KinyaBERT для языка киньяруанда использует наименьшее число параметров.
Tüm modeller, yüz ile yüz on milyon parametre arasında olan temel mimaride, KinyaBERT'in en az sayıda parametre kullandığı koşullar altında Kinyarwanda ile yapılandırılmıştır.
所有模型都是在基础架构中配置的,基础架构的参数大约在100到1000万之间,基尼亚卢旺达语和KinyaBERT使用的参数数量最少。
164
All models except the multilingual are pretrained for thirty two thousand gradient updates with a batch size of two thousand five hundred and sixty sequences in each batch.
جميع النماذج باستثناء النموذج متعدد اللغات مدربة مسبقًا على اثنين وثلاثين ألف تحديث تدرج مع حجم دفعة مكون من ألفين وخمسمائة وستين تسلسل في كل دفعة.
Alle außer dem mehrsprachigen Modell werden für zweiunddreißigtausend Gradient-Updates vortrainiert, mit einer Batchgröße von zweitausendfünfhundertsechzig Sequenzen in jedem Batch.
همه مدل‌ها به جز مدل چند زبانه برای سی و دو هزار به‌روزرسانی شیب‌دار با اندازه دسته‌ای دو هزار و پانصد و شصت توالی در هر دسته از پیش آموزش‌دیده شده‌اند.
Tous les modèles sauf les multilingues sont préformés pour trente-deux mille mises à jour de pentes avec une taille de lot de deux mille cinq cent soixante séquences dans chaque lot.
多言語を除くすべてのモデルは、32,000の傾度の更新で事前訓練されたものです。各更新のバッチサイズは2,560のシーケンスです。
vooraf getraindAlle modellen behalve de meertalige zijn vooraf getraind voor tweeëndertigduizend gradiënt updates met een batchgrootte van tweeduizend vijfhonderdzestig sequenties in elke batch.
Todos os modelos exceto o de vários idiomas são pré-treinados para trinta e dois mil atualizações em gradiente com um tamanho de lote de dois mil quinhentos e sessenta sequências em cada lote.
Все модели, кроме многоязычных, предварительно обучены для распознавания тридцати двух тысяч градиентных обновлений с двумя тысячами пятьюстами шестьюдесятью последовательностями в каждой серии.
Çok dilli dışındaki tüm modeller, her bir partide parti büyüklüğü iki bin beş yüz altmış dizi olan otuz iki bin gradyan güncellemesi için önceden eğitilmiştir.
除多语言外,所有模型都经过预训练用于32000梯度更新,每批次的批量大小为2560序列。
165
We evaluate the pretrained models on three sets of tasks.
نقيم النماذج المدربة مسبقًا على ثلاث مجموعات من المهام.
Wir bewerten die vortrainierten Modelle anhand von drei Gruppen von Aufgaben.
ما مدل‌های از قبل آموزش‌دیده‌شده را در سه مجموعه از کارها ارزیابی می‌کنیم.
Nous évaluons les modèles préformés sur trois ensembles de tâches.
事前訓練されたモデルは、3つのタスクセットで評価されます。
We evalueren de modellen vooraf getraind op drie sets van taken.
Avaliamos os modelos pré-treinados em três conjuntos de tarefas.
Мы оцениваем предварительно обученные модели по трем наборам задач.
Önceden eğitilmiş modelleri üç takımdan oluşan görevler hâlinde değerlendiriyoruz.
我们在三组任务上评估预训练模型。
166
One is the GLUE benchmark which has often been used for evaluating the effectiveness of pretrained language models.
أحدها هو معيار GLUE الذي غالبًا ما يستخدم لتقييم فعالية نماذج اللغة المدربة مسبقًا.
Eine davon ist die GLUE-Benchmark, die häufig zur Bewertung der Effektivität von vortrainierten Sprachmodellen verwendet wird.
یکی معیار GLUE است که اغلب برای ارزیابی اثربخشی مدل‌های زبان از قبل آموزش داده شده استفاده می‌شود.
L’une est la référence GLUE qui a souvent été utilisée pour évaluer l’efficacité des modèles de langue préformée.
1つは、事前訓練された言語モデルの有効性を評価するためにしばしば使用されてきたGLUEベンチマークです。
Een daarvan is de GLUE benchmark die vaak is gebruikt voor het evalueren van de effectiviteit van voorgetrainde taal modellen.
Uma delas é o benchmark GLUE, que tem sido frequentemente usado para avaliar a eficácia de modelos de linguagens pré-treinadas.
Одним из них является эталон GLUE, который часто используется для оценки эффективности предварительно обученных языковых моделей.
Bunlardan biri, önceden eğitilmiş dil modellerinin etkinliğini değerlendirmek için sıklıkla kullanılan GLUE ölçütüdür.
其中一个是GLUE基准,它经常用于评估预训练语言模型的有效性。
167
We obtain our GLUE benchmark data by translating the original benchmark data into Kinyarwanda using Google Translate.
نحصل على بيانات معيار GLUE الخاصة بنا عن طريق ترجمة بيانات المعيار الأصلي إلى اللغة الكينيرواندية باستخدام ترجمة جوجل.
Wir erhalten unsere GLUE-Benchmark-Daten, indem wir die originalen Benchmark-Daten mit Google Translate ins Kinyarwanda übersetzen.
ما داده معیار GLUE خود را با ترجمه داده اصلی معیار به زبان رواندایی با استفاده از Google Translate به دست می‌آوریم.
Nous obtenons nos données de référence GLUE en traduisant les données de référence originales en kinyarwanda à l’aide de Google Translate.
GLUEベンチマークデータは、元のベンチマークデータをGoogle翻訳でキニアルワンダ語に翻訳して取得します。
We verkrijgen onze GLUE benchmark data door de originele benchmark data te vertalen naar Kinyarwanda met behulp van Google Translate.
Obtemos nossos dados de referência GLUE traduzindo os dados de referência originais para Kinyarwanda usando o Google Translate.
Мы получаем данные по эталону GLUE, переводя исходные эталонные данные на язык киньяруанда с помощью Google Переводчика.
GLUE ölçütü verilerimizi, orijinal ölçüt verilerini Google Translate aracılığıyla Kinyarwandaya çevirerek elde ettik.
我们通过使用Google翻译将原始基准数据翻译成基尼亚卢旺达语来获得GLUE基准数据。
168
The second task is Kinyarwanda named entity recognition benchmark, which is a high quality dataset that was annotated by trained native speakers.
المهمة الثانية هي معيار named entity recognition في اللغة الكينيرواندية، وهو عبارة عن مجموعة بيانات ذات جودة عالية تم شرحها من قبل متحدثين أصليين مدربين.
Die zweite Aufgabe ist die named entity recognition-Benchmark von Kinyarwanda, ein qualitativ hochwertiger Datensatz, der von trainierten Muttersprachlern annotiert wurde.
دومین کار، معیار تشخیص نهاد نامگذاری شده رواندایی است، که یک مجموعه داده با کیفیت بالا است که توسط سخنرانان بومی آموزش دیده تفسیر شده است.
La deuxième tâche est la référence de reconnaissance d'entité nommée kinyarwanda, qui est un ensemble de données de haute qualité ayant été annoté par des locuteurs natifs formés.
2つ目のタスクはキニアルワンダ語の名前付きエンティティ認識ベンチマークで、訓練を受けたネイティブスピーカーによる注釈付きの、高品質のデータセットです。
De tweede taak is Kinyarwanda naam entiteitherkenning benchmark, wat een hoge kwaliteit dataset is die werd geannoteerd door getrainde moedertaalsprekers.
A segunda tarefa é o benchmark named entity recognition de Kinyarwanda, que é um conjunto de dados de qualidade que foi anotado por falantes nativos treinados.
Второй задачей является получение эталона по выделению именованных сущностей на языке киньяруанда, представляющего собой набор данных высокого качества и аннотированного обученными носителями языка.
İkinci görev, eğitimli anadil konuşmacıları tarafından ek açıklama eklenmiş yüksek kalitede veri kümesi olan Kinyarwanda named entity recognition ölçütüdür.
第二个任务是基尼亚卢旺达语命名实体识别基准,这是一个由训练有素的母语使用者注释的高质量数据集。
169
The third one is a news categorization task where we pull news articles from several websites and collecting their categorization tags that were assigned by the authors and then essentially trying to predict the same, the the same categories.
والثالثة هي مهمة تصنيف أخبار حيث نسحب مقالات أخبار من عدة مواقع إلكترونية ونجمع علامات التصنيف الخاصة بها التي تم تعيينها من قبل المؤلفين ثم نحاول بشكل أساسي التنبؤ بنفس الفئات.
Bei der dritten Aufgabe handelt es sich um eine Kategorisierung von Nachrichten. Hier rufen wir Nachrichtenartikel von verschiedenen Websites ab und sammeln ihre Kategorisierungstags, die von den Autoren zugewiesen wurden. Im Wesentlichen versuchen wir, die gleichen Kategorien vorherzusagen.
مورد سوم یک کار طبقه‌بندی اخبار است که در آن مقالات خبری را از چندین وب‌سایت استخراج کرده و برچسب‌های دسته‌بندی آنها را که توسط نویسندگان اختصاص داده شده جمع‌آوری می‌کنیم و سپس سعی می‌کنیم همان دسته‌ها را پیش‌بینی کنیم.
La troisième est une tâche de catégorisation des actualités où nous extrayons des articles de actualités de plusieurs sites web et collectons leurs étiquettes de catégorisation qui ont été attribuées par les auteurs, puis essayons essentiellement de prévenir ces dernières, les mêmes catégories.
3つ目はニュース分類タスクです。複数のウェブサイトからニュース記事を取得し、著者によって割り当てられた分類タグを収集し、基本的に同じカテゴリを予測します。
De derde is een nieuws categorisatie taak waarbij we nieuws artikelen van verschillende websites halen en hun categorisatietags verzamelen die door de auteurs zijn toegewezen en vervolgens in wezen proberen hetzelfde te voorspellen, dezelfde categorieën.
A terceira é uma tarefa de categorização de notícias, onde tratamos artigos de notícias de vários sites e recolhemos as suas etiquetas de categorização que foram atribuídas pelos autores e, essencialmente, tentamos prever as mesmas categorias.
Третья задача — это категоризация новостей, в ходе которой мы извлекаем новостные статьи с нескольких веб-сайтов, собираем назначенные авторами категоризационные теги, после чего, опять же, пытаемся предсказать те же самые категории.
Üçüncüsü ise haber kategorizasyonu görevidir. Bu kapsamda birkaç web sitesinden haber makaleleri çekeriz, yazarlar tarafından atanan kategorizasyon etiketlerini toplarız ve daha sonra esasında aynı kategoriyi tahmin etmeye çalışırız.
第三个是新闻分类任务,我们从几个网站中提取新闻文章,并收集作者分配的分类标签,然后基本上尝试预测相同的类别。
170
And now we go to the results.
والآن ننتقل إلى النتائج.
Sehen wir uns jetzt die Ergebnisse an.
و حالا به سراغ نتایج می‌رویم.
Et maintenant, passons aux résultats.
それでは、結果に移ります。
En nu gaan we naar de resultaten.
E agora vamos aos resultados.
А теперь перейдем к результатам.
Ve şimdi sonuçlara geçiyoruz.
现在我们来看看结果。
171
For the GLUE benchmark, we find that KinyaBERT consistently outperforms baseline models.
بالنسبة لمعيار GLUE، نجد أن KinyaBERT يتفوق باستمرار على النماذج الأساسية.
Bei der GLUE-Benchmark haben wir festgestellt, dass KinyaBERT durchweg besser abschneidet als die Baseline-Modelle.
برای معیار GLUE، متوجه می‌شویم که KinyaBERT از مدل‌های پایه بهتر عمل می‌کند.
Pour la référence GLUE, nous constatons que KinyaBERT dépasse systématiquement les modèles de référence.
GLUEベンチマークでは、KinyaBERTがベースラインモデルを一貫して上回っていることがわかりました。
Voor de GLUE benchmark vinden we dat KinyaBERT consequent beter presteert dan baseline modellen.
Para o benchmark GLUE, descobrimos que o KinyaBERT supera consistentemente os modelos de linha de referência.
В том, что касается эталона GLUE, мы обнаружили, что KinyaBERT стабильно и неизменно превосходит базовые модели.
GLUE ölçütü açısından KinyaBERT'in temel modellerden sürekli olarak daha iyi performans gösterdiğini görüyoruz.
对于GLUE基准,我们发现KinyaBERT始终优于基线模型。
172
Here we show the average performance for ten finetuning runs.
ونعرض هنا متوسط الأداء لعشرة إجراءات للضبط الدقيق.
Hier zeigen wir die durchschnittliche Leistung von zehn Durchläufen zur Feinabstimmung.
در اینجا میانگین عملکرد برای ده اجرا با تنظیم دقیق را نشان می‌دهیم.
Ici, nous montrons la performance moyenne pour dix cycles de raffinement.
ここでは、10件の微調整の実行結果の平均値を示します。
Hier tonen we de gemiddelde prestaties voor tien finetunen runs.
Aqui mostramos o desempenho médio para dez execuções de ajuste fino.
Здесь можно увидеть среднюю производительность по десяти прогонам тонкой настройки.
Burada on adet hassas ayar yapma çalışması için ortalama performansı gösteriyoruz.
在这里,我们展示了十次微调运行的平均表现。
173
We also run a user evaluation of the translations that are produced by Google Translate.
ونقوم أيضًا بإجراء تقييم مستخدم لـ الترجمات التي تنتجها ترجمة جوجل.
Wir führen auch eine Benutzerevaluation der Übersetzungen durch, die von Google Translate erstellt werden.
همچنین ترجمه‌های تولید شده توسط Google Translate را توسط کاربران ارزیابی می‌کنیم.
Nous effectuons également une évaluation des traductions produites par Google Translate.
また、Google翻訳によって生成された翻訳のユーザー評価も実行します。
We voeren ook een gebruiker evaluatie uit van de vertalingen die worden geproduceerd door Google Translate.
Também realizamos uma avaliação de utilizadores das traduções que são produzidas pelo Google Translate.
Мы также проводим пользовательскую оценку переводов, выполненных с помощью Google Переводчика.
Ayrıca Google Translate tarafından üretilen çevirilerin kullanıcı değerlendirmesini de yürütüyoruz.
我们还对Google翻译生成的翻译进行了用户评估。
174
Essentially, user users rated about six thousand examples, assigning scores on a scale from one to four, assessing the quality of the translations.
في الأساس، صنف المستخدمون حوالي ستة آلاف مثال، مع تعيين الدرجات على مقياس من واحد إلى أربعة، وتقييم جودة الترجمات.
Im Wesentlichen bewerteten die Benutzer etwa sechstausend Beispiele und vergaben Noten auf einer Skala von eins bis vier, um die Qualität der Übersetzungen zu bewerten.
کاربران حدود شش هزار مثال را رتبه‌بندی کردند و امتیازهایی را در مقیاس یک تا چهار، برای ارزیابی کیفیت ترجمه‌ها اختصاص دادند.
Essentiellement, les utilisateurs ont évalué environ six mille exemples, en attribuant des scores sur une échelle de un à quatre et en évaluant la qualité des traductions.
基本的に、ユーザーは約6,000の例を評価し、1から4のスケールでスコアを割り当て、翻訳の品質を評価しました。
beoordelenIn wezen beoordeelden gebruiker gebruikers ongeveer zesduizend voorbeelden, waarbij scores werden toegekend op een schaal van één tot vier, beoordelen van de kwaliteit van de vertalingen.
Essencialmente, os utilizadores classificaram cerca de seis mil exemplos, atribuindo pontuações numa escala de um a quatro, avaliando a qualidade das traduções.
В ходе эксперимента пользователь оценивал качество переводов около шести тысяч примеров, присваивая им баллы по шкале от одного до четырех.
Esasında kullanıcılar, bir ila dört arası ölçekte puanlar vererek yaklaşık altı bin örneği derecelendirmiş ve çevirilerin kalitesini değerlendirmiştir.
基本上,用户用户对大约6000个例子进行了评分,按照从1到4的等级进行评分,评估翻译的质量。
175
The result is that many translations were noisy.
والنتيجة هي أن العديد من الترجمات كانت مزعجة.
Das Ergebnis war, dass viele Übersetzungen qualitativ schlecht waren.
نتیجه این است که بسیاری از ترجمه‌ها دارای نویز بودند.
Le résultat est que beaucoup de traductions étaient bruyantes.
その結果、多くの翻訳はノイズが多くなりました。
Het resultaat is dat veel vertalingen luidruchtig waren.
O resultado é que muitas traduções tinham ruído.
В результате многие переводы оказались «шумными».
Sonuç olarak birçok çeviri anlamsızdı.
其结果是,许多翻译是杂乱无章的。
176
But, all models had to cope with the same translation noise, and the relative performance between the models is still important to notice.
ولكن، كان على جميع النماذج التعامل مع نفس إزعاج الترجمة ولا يزال من المهم ملاحظة الأداء النسبي بين النماذج.
Aber alle Modelle mussten mit der gleichen schlechten Qualität der Übersetzung umgehen, und die relative Leistung zwischen den Modellen kann immer noch bedeutend festgestellt werden.
اما، همه مدل‌ها مجبور بودند با همان نویز ترجمه کنار بیایند، و عملکرد نسبی بین مدل‌ها هنوز مهم است.
Mais tous les modèles ont dû faire face au même bruit de traduction, et la performance relative entre les modèles est toujours importante à remarquer.
しかし、すべてのモデルは同じ翻訳ノイズに対処しなければならず、モデル間の相対的なパフォーマンスは依然として注目に値します。
Maar alle modellen moesten het hoofd bieden aan dezelfde ruis in de vertaling, en de relatieve prestaties tussen de modellen zijn nog steeds belangrijk om op te merken.
Mas todos os modelos tiveram de lidar com o mesmo ruído na tradução, e continua a ser importante notar o desempenho relativo entre os modelos.
Тем не менее, всем нашим моделям пришлось иметь дело с одними и тем же переводческими «шумами», поэтому мы считаем, что также важно сравнивать модели по эффективности.
Ancak, tüm modeller aynı çeviri anlamsızlığı ile başa çıkmak zorunda kaldı ve modeller arasındaki göreceli performansın fark edilmesi hâlâ önem arz etmektedir.
但是,所有模型都必须应对相同的翻译噪声,并且模型之间的相对性能仍然是值得注意的重要因素。
177
For the named entity recognition task, we also find that KinyaBERT gives the best performance with the affix distribution regression variant performing best.
بالنسبة لمهمة named entity recognition، نجد أيضًا أن KinyaBERT يعطي أفضل أداء مع أداء متغير تراجع توزيع اللواحق بشكل أفضل.
Bei der Aufgabe Named Entity Recognition stellten wir außerdem fest, dass KinyaBERT die beste Leistung erbringt, wobei die Variante mit der Verteilungsregression der Affixe am besten abschneidet.
برای کار تشخیص موجودیت نامگذاری شده، دریافتیم که KinyaBERT بهترین عملکرد را دارد و از نظر متغیر رگرسیون توزیع پسوند بهترین عملکرد را دارد.
Pour la tâche de reconnaissance d'entité nommée, nous constatons également que KinyaBERT fournit les meilleures performances avec la variante de régression de distribution d’affixes fonctionnant le mieux.
名前付きエンティティ認識タスクでは、KinyaBERTが、最高のパフォーマンスを示し、接辞分布回帰バリアントが最高のパフォーマンスを示すことがわかりました。
Voor de naam entiteitherkenning taak vinden we ook dat KinyaBERT de beste prestaties levert met de affixverdeling regressie -variant die het beste presteert.
Para a tarefa name entity recognition, também descobrimos que o KinyaBERT oferece o melhor desempenho, com a variante de regressão de distribuição de afixos com melhor desempenho.
Решая задачу по выделению именованных сущностей, мы обнаружили, что KinyaBERT наиболее эффективен при регрессивном вариантном распределении аффиксов.
Named entity recognition görevi için, KinyaBERT' in en iyi performansı sergilediğini, ek dağılımı gerileme varyantının en iyi performansa sahip olduğunu görüyoruz.
对于命名实体识别任务,我们还发现KinyaBERT给出的表现最好,并且词缀分布回归变体表现最佳。
178
These results are also averages of ten finetuning runs.
وهذه النتائج هي أيضًا متوسطات عشرة إجراءت للضبط الدقيق.
Diese Ergebnisse sind auch Mittelwerte von zehn Durchläufen zur Feinabstimmung.
این نتایج شامل میانگین ده اجرا با تنظیم دقیق هستند.
Ces résultats sont également des moyennes de dix cycles de raffinement.
これらの結果は、10回の微調整の実行結果の平均でもあります。
Deze resultaten zijn ook gemiddelden van tien finetunen runs.
Estes resultados são também médias de dez execuções de ajuste fino.
Эти результаты являются средним значением, полученным после десяти прогонов тонкой настройки.
Bu sonuçlar aynı zamanda on hassas ayar yapma çalışmasının ortalamalarıdır.
这些结果也是十微调运行的平均值。
179
For the news categorization task, we find mixed results.
بالنسبة لمهمة تصنيف الأخبار، نجد نتائج مختلطة.
Bei der Aufgabe zur Kategorisierung der Nachrichten bekamen wir gemischte Ergebnisse.
برای کار طبقه‌بندی اخبار، نتایج متفاوتی را مشاهده کردیم.
Pour la tâche de catégorisation des actualités, nous trouvons des résultats mitigés.
ニュース分類タスクについては、さまざまな結果が確認できます。
Voor de nieuws categorisatie taak vinden we gemengde resultaten.
Para a tarefa de categorização de notícias, encontramos resultados mistos.
При выполнении задачи по категоризации новостей мы получили смешанные результаты.
Haber kategorizasyonu görev için karışık sonuçlar elde ettik.
对于新闻分类任务,我们发现结果好坏参半。
180
Previous work on text classification for Kinyarwanda had found that simple keyword detection is mostly enough for solving this specific task.
إذ وجد العمل السابق على تصنيف النص للّغة الكينيرواندية أن الكشف عن كلمة رئيسية بسيطة هو أمر كافٍ في الغالب لحل هذه المهمة المحددة.
Frühere Arbeiten zur Textklassifizierung für Kinyarwanda hatten herausgefunden, dass eine einfache Schlüsselworterkennung meistens ausreicht, um diese spezifische Aufgabe zu lösen.
مقاله قبلی روی طبقه بندی متن برای زبان رواندایی بود که دریافته بودند تشخیص کلمه کلیدی ساده اغلب برای انجام این کار خاص، کافی است.
Le travail antérieur sur la classification de texte pour le kinyarwanda avait trouvé que la détection de mot-clé simple est surtout suffisante pour résoudre cette tâche spécifique.
以前のキニアルワンダ語のテキスト分類の研究では、単純なキーワード検出がこの特定のタスクを解決するのに十分であることがわかりました。
Eerder werk aan tekstclassificatie voor Kinyarwanda had ontdekt dat eenvoudig zoekwoord detectie meestal voldoende is voor het oplossen van deze specifieke taak.
Trabalhos anteriores sobre classificação de texto para Kinyarwanda descobriu que a detecção de palavra-chave simples é maioritariamente suficiente para resolver esta tarefa específica.
Предыдущая работа по классификации текста на языке киньяруанда показала, что простого обнаружения ключевых слов чаще всего достаточно для решения этой конкретной задачи.
Kinyarwanda için metin sınıflandırması hakkındaki önceki çalışma, bu spesifik görevi çözmek için basit anahtar sözcük tespitinin çoğunlukla yeterli olduğunu ortaya koymuştur.
之前关于基尼亚卢旺达语文本分类的工作发现,简单的关键词检测就足以解决这个特定的任务。
181
Therefore, there is less gain from using pretrained language models.
لذلك، هناك استفادة أقل من استخدام نماذج لغة مدربة مسبقًا.
Daher ist die Verwendung von vortrainierten Sprachmodellen weniger erfolgsversprechend.
بنابراین، استفاده از مدل‌های زبان از پیش آموزش داده شده مناسب نیست.
Par conséquent, il y a moins d'avantage à utiliser des modèles de langue préformée.
したがって、事前訓練された言語のモデルを使用することで得られる利益は少なくなります。
Daarom is er minder winst uit het gebruik van vooraf getrainde taal modellen.
Assim, há menos ganho com o uso de modelos de linguagens pré-treinadas.
Следовательно, использование предварительно обученных языковыхмоделей приносит меньше пользы
Bu nedenle önceden eğitilmiş dil modelleri kullanıldığında daha az kazanım elde edilmiştir.
因此,使用预训练语言模型的收益较少。
182
On this particular task of news categorization.
وفي هذه المهمة الخاصة بتصنيف الأخبار.
Jetzt zu dieser besonderen Aufgabe der Kategorisierung von Nachrichten.
در مورد کار خاص طبقه‌بندی اخبار.
Sur cette tâche particulière de catégorisation des actualités.
このニュース分類の特定のタスクについて。
Op deze specifieke taak van nieuws categorisatie.
Sobre esta tarefa particular de categorização de notícias.
при решении данной конкретной задачи по категоризации новостей.
Bu durum, özellikle haber kategorizasyonu görevi için geçerlidir.
关于新闻分类这个特殊任务。
183
We also conducted an ablation study to see if there are alternative structures that improve performance.
أجرينا أيضًا دراسة استئصال لمعرفة ما إذا كانت هناك هياكل بديلة تعمل على تحسين الأداء.
Wir haben auch eine Ablationsstudie durchgeführt, um zu sehen, ob es alternative Strukturen gibt, die die Leistung verbessern.
ما همچنین یک مطالعه عضوبرداری انجام دادیم تا ببینیم آیا ساختارهای جایگزینی وجود دارد که عملکرد را بهبود ببخشد یا خیر.
Nous avons également mené une étude d’ablation pour voir s’il existe des structures alternatives qui améliorent les performances.
また、パフォーマンスを向上させる代替構造があるかどうかを調べるためにアブレーション研究を実施しました。
We hebben ook een ablatie studie uitgevoerd om te zien of er alternatieve structuren zijn die de prestaties verbeteren.
Também realizámos um estudo de ablação para ver se existem estruturas alternativas que melhorem o desempenho.
Мы также провели абляционное исследование с целью обнаружения альтернативных структур, которые бы позволили нам повысить эффективность.
Ayrıca performansı artıran alternatif yapılar olup olmadığını görmek için bir ablasyon çalışması yaptık.
我们还进行了一项消融研究,看看是否有其他结构可以提高表现。
184
For the GLUE benchmark, we find that using affix sets consistently performs better, while affix probability regression objective yields the best performance on named entity recognition.
بالنسبة لمعيار GLUE، نجد أن استخدام مجموعات اللواحق تعطي أداءً أفضل باستمرار، بينما يعطي هدف تراجع احتمالية اللواحق أفضل أداء في named entity recognition.
Bei der GLUE-Benchmark haben wir festgestellt, dass die Verwendung von Affix-Sätzen durchweg besser abschneidet, während das Ziel der Affix-Wahrscheinlichkeitsregression die beste Leistung bei der Named Entity Recognition erbringt.
برای معیار GLUE، متوجه می‌شویم که استفاده از مجموعه‌های پسوند باعث می‌شود به طور مداوم عملکرد بهتر شود، در حالی که رگرسیون احتمال پسوند، بهترین عملکرد را در تشخیص نهاد نام‌گذاری شده دارد.
Pour la référence GLUE, nous constatons que l’utilisation d’ensembles d’affixes donne constamment de meilleurs résultats, tandis que l’objectif de régression de probabilité d’affixe fournit les meilleures performances sur la reconnaissance d'entité nommée.
GLUEベンチマークでは、接辞セットを使用すると一貫してパフォーマンスが向上し、名前付きエンティティ認識で接辞確率回帰目標では、最高のパフォーマンスが得られることがわかりました。
Voor de GLUE benchmark, vinden we dat het gebruik van affix sets consequent beter presteert, terwijl affix waarschijnlijkheid regressie doelstelling levert de beste prestaties op naam entiteit erkenning.
Para o benchmark GLUE, descobrimos que o uso de conjuntos de afixos tem um desempenho melhor de forma consistente, enquanto o objetivo de regressão de probabilidade de afixos produz o melhor desempenho em named entity recognition.
Для эталона GLUE обнаружено, что применение наборов аффиксов всегда более эффективно, тогда как регрессивное предсказание вероятности аффиксов дает лучшие результаты при выделении именованных сущностей.
GLUE ölçütü açısından, ek setleri kullanmanın tutarlı bir şekilde daha iyi performansla sonuçlandığını, ek gerileme hedefinin named entity recognition bağlamında en iyi performansı ortaya koyduğunu görüyoruz.
对于GLUE基准,我们发现使用词缀集始终表现更好,而词缀概率回归目标在命名实体识别上产生最佳表现。
185
Also by looking at the low scores for finetuning, we find that KinyaBERT has better convergence in most cases.
أيضًا من خلال النظر في الدرجات المنخفضة للضبط الدقيق، نجد أن KinyaBERT لديه تقارب أفضل في معظم الحالات.
Auch wenn man die niedrigen Werte bei der Feinabstimmung betrachtet, stellt man fest, dass KinyaBERT in den meisten Fällen eine bessere Konvergenz aufweist.
همچنین با توجه به امتیازات پایین برای تنظیم دقیق، متوجه می‌شویم که KinyaBERT در اکثر موارد همگرایی بهتری دارد.
De plus, en examinant les faibles scores pour le raffinement, nous constatons que KinyaBERT a une meilleure convergence dans la plupart des cas.
また、微調整の低スコアを見ると、KinyaBERTはほとんどの場合、収束性が優れていることがわかります。
Ook door te kijken naar de lage scores voor finetunen, vinden we dat KinyaBERT in de meeste gevallen een betere convergentie heeft.
Ao observar as pontuações baixas para ajuste fino, descobrimos que o KinyaBERT tem melhor convergência na maioria dos casos.
Кроме того, низкие результаты при тонкой настройке позволяют понять, что KinyaBERT в большинстве случаев показывает большую конвергентность.
Ayrıca hassas ayar yapma ile ilgili düşük puanlara bakıldığında KinyaBERT'in yakınsamasının çoğu durumda daha iyi olduğunu görüyoruz.
此外,通过查看微调的低分数,我们发现KinyaBERT在大多数情况下具有更好的收敛性。
186
So to conclude, this work has demonstrated the effectiveness of explicitly using morphological information in pretrained language models.
إذًا في الختام، أظهر هذا العمل فعالية الاستخدام الصريح للمعلومات المورفولوجية في نماذج اللغة المدربة مسبقًا.
Abschließend lässt sich sagen, dass diese Arbeit die Effektivität der expliziten Verwendung von morphologischen Informationen in vortrainierten Sprachmodellen bewiesen hat.
بنابراین نتیجه می‌گیریم، این کار اثربخشی صریح استفاده از اطلاعات مورفولوژیکی در مدل‌های زبان از پیش آموزش داده شده را نشان می‌دهد.
Donc, pour conclure, ce travail a démontré l’efficacité de l’utilisation explicite des informations morphologiques dans les modèles de langue préformée.
結論として、この研究は、事前訓練された言語モデルで形態的情報を明示的に使用することの有効性を実証しています。
Tot slot heeft dit werk de effectiviteit aangetoond van het expliciet gebruik van morfologisch informatie in vooraf getrainde taal modellen.
Como conclusão, este trabalho demonstrou a eficácia do uso explícito de informação morfológica em modelos de linguagens pré-treinadas.
В заключение стоит отметить, что эта работа продемонстрировала эффективность непосредственного использования морфологической информации в предварительно обученных языковых моделях.
Sonuç olarak, bu çalışma önceden eğitilmiş dil modellerinde morfolojik bilgileri açıkça kullanmanın etkinliğini ortaya koymuştur.
总之,这项工作已经证明了在预训练语言模型中明确使用形态学信息的有效性。
187
The proposed two tier transformer encoder architecture enables capturing morphological complexity morphological compositionality, which is an important aspect of morphologically rich languages.
تمكن بنية مشفر المحول المقترحة من مستويين من التقاط التعقيد المورفولوجي ونمذجة التركيبة المورفولوجية، وهو جانب مهم من اللغات الغنية مورفولوجيًا.
Die vorgeschlagene zweistufige Transformer-Encoder-Architektur ermöglicht die Erfassung von morphologischer Komplexität und morphologischer Kompositionalität, die ein wichtiger Aspekt von morphologisch reichen Sprachen ist.
معماری رمزگذار مبدل دو سطحی پیشنهادی، امکان در نظر گرفتن پیچیدگی مورفولوژیکی و ترکیب‌پذیری مورفولوژیکی را فراهم می‌کند، که یک جنبه مهم در زبان‌های غنی از نظر مورفولوژیکی است.
L’architecture à deux niveaux proposée permet de capturer la compositionnalité morphologique de la complexité morphologique, qui est un aspect important des langues morphologiquement riches.
提案された2層のトランスフォーマーエンコーダアーキテクチャは、形態的に豊かな言語の重要なアスペクトである形態的複雑性、形態的構成の可能性を捉えることを可能にします。
compositionaliteitDe voorgestelde two tier transformator encoder architectuur maakt het vastleggen van morfologische complexiteit morfologische compositionaliteit mogelijk, wat een belangrijk aspect is van morfologisch rijke talen.
A arquitetura proposta de dois níveis transformer encoder permite capturar a complexidade morfológica e a composicionalidade morfológica, que é um aspecto importante de linguagens morfologicamente ricas.
Предлагаемая двухуровневая архитектура трансформера-кодировщика позволяет уловить морфологическую сложность и морфологическую композиционность, которые являются важным аспектом морфологически богатых языков.
Önerilen iki katmanlı dönüştürücü kodlayıcı mimarisi, morfolojik karmaşıklığın morfolojik tümlemenin yakalanmasını sağlar; bu da morfolojik olarak zengin dillerin önemli bir özelliğidir.
所提出的两层转换器编码器架构能够捕获形态学复杂性形态学组合性,这是形态学丰富语言的一个重要方面。
188
These findings should motivate further research into morphology aware language pretrained language models.
يجب أن تحفز هذه النتائج المزيد من البحث في نماذج اللغة المدربة مسبقًا للغة التي تراعي المورفولوجيا.
Diese Ergebnisse sollten zu weiteren Forschungen über morphologie-bewusste, vortrainierte Sprachmodelle motivieren.
این یافته‌ها می‌تواند انگیزه تحقیقات بیشتر در زمینه مدل‌های زبان از پیش آموزش‌دیده با توجه به مورفولوژی باشد.
Ces résultats devraient motiver davantage les recherches sur les modèles de langue préformée conscients de la morphologie.
これらの知見は、語形論を認識した言語事前訓練された言語モデルのさらなる研究を動機づけるはずです。
Deze bevindingen zouden verder onderzoek naar morfologie aware taal voorgetrainde taal modellen moeten motiveren.
Estes resultados devem motivar mais pesquisa em modelos linguagens pré-treinadas em linguagens sensíveis à morfologia.
Полученные результаты должны подтолкнуть нас к дальнейшей разработке морфологически грамотных предварительно обученных языковых моделей.
Bu bulgular, morfoloji bilincine sahip dili, önceden eğitilmiş dil modelleri konusunda daha fazla araştırma yapmaya motive etmelidir.
这些发现应该能激发对形态学感知语言预训练语言模型的进一步研究。
189
Hello, my name is Michał Pietruszka and it is my pleasure to present to you the paper titled Sparsifying Transformer Models with Trainable Representation Pooling.
مرحبًا، اسمي ميشال بيتروسكا ويسرني أن أقدم لكم الورقة التي تحمل العنوان نماذج المحول المتناثرة مع تجميع التمثيل القابل للتدريب.
Hallo, mein Name ist Michał Pietruszka und es ist mir eine Freude, Ihnen das Paper mit dem Titel Sparsifying Transformer Models with Trainable Representation Pooling vorzustellen.
سلام، نام من Michał Pietruszka است و خوشحالم که مقاله‌ای با عنوان «تنک کردن مدل‌های مبدل با منبع معرف قابل آموزش» را به شما ارائه می‌کنم.
Bonjour, je m’appelle Michal Pietruszka et j’ai le plaisir de vous présenter l’article intitulé Modèles de conversion parcimonieux avec la mise en commun de la représentation adaptative.
こんにちは。Michał Pietruszkaと申します。『訓練可能な表現プーリングによるトランスフォーマーモデルの分散』と題した論文をご紹介します。
Hallo, mijn naam is Michał Pietruszka en het is mij een genoegen u de paper met de titel Sparsificeren van transformer modellen met trainbare representatie pooling te presenteren.
Olá, o meu nome é Michał Pietruszka e tenho o prazer de apresentar o artigo intitulado Dispersão de modelos transformadores com agrupamento de representação treinável.
Здравствуйте! Меня зовут Михал Петрушка. Я бы хотел представить работу «Разрежающие трансформерные модели и обучаемость объединению представлений».
Merhaba, adım Michał Pietruszka. Size "Eğitilebilir Temsil Birleştirme ile Dönüştürücü Modellerini Seyrekleştirme" başlıklı makaleyi sunmaktan mutluluk duyuyorum.
大家好,我叫Michał Pietruszka,我很高兴向大家介绍这篇题为《用可训练的表示池来对转换器模型进行稀疏化》的论文。
190
A work done at Applica AI in cooperation with Lukasz Borchmann and Lukasz Garncarek.
وهو عمل تم إنجازه في Applica AI بالتعاون مع لوكاس بورخمان ولوكاس جارنكيرك.
Die Arbeit wurde bei Applica KI in Zusammenarbeit mit Lukasz Borchmann und Lukasz Garncarek durchgeführt.
این مقاله در Applica AI با همکاری Lukasz Borchmann و Lukasz Garncarek انجام شده است.
Un travail réalisé à Applica intelligence artificielle en coopération avec Lukasz Borchmann et Lukasz Garncarek.
これは、Lukasz BorchmannとLukasz Garncarekとの協力で、Applica AIで行われた研究です。
Dit project is uitgevoerd bij Applica AI in samenwerking met Lukasz Borchmann en Lukasz Garncarek.
Um trabalho feito na Applica AI em cooperação com Lukasz Borchmann e Lukasz Garncarek.
Исследование выполнено с помощью AI Applica при сотрудничестве с Лукашем Борхманном и Лукашем Гарнчареком.
Bu çalışma, Applica'da yapay zeka Lukasz Borchmann ve Lukasz Garncarek ile iş birliği içinde yapılmıştır.
这是ApplicaAI与Lukasz Borchmann和Lukasz Garncarek合作完成的一项工作。
191
Let me start with the problems our work targets.
واسمحوا لي أن أبدأ بالمشاكل التي يستهدفها عملنا.
Lassen Sie mich mit den Problemen beginnen, die in unserer Arbeit abgehandelt werden.
اجازه دهید مسائلی را که در این مقاله به آنها پرداخته شده معرفی کنم.
Permettez-moi de commencer par les problèmes que nous visons dans le cadre de notre travail.
まずは、私たちの研究の目標についてお話しします。
Laat ik beginnen met de problemen die onze werkdoelen zijn.
Permitam-me que comece pelos problemas que os nossos objectivos de trabalho nos propõem.
Для начала озвучу проблемы, над которыми мы работали.
Çalışmamızın hedefindeki sorunlarla başlamak istiyorum.
让我先谈谈我们的工作目标。
192
Our method works well for the cases where long inputs are considered.
تعمل طريقتنا بشكل جيد في الحالات التي يتم فيها النظر في المدخلات الطويلة.
Unsere Methode funktioniert gut für die Fälle, in denen lange Eingaben berücksichtigt werden.
روش ما برای مواردی که ورودی‌های طولانی دارند، به خوبی کار می‌کند.
Notre méthode fonctionne bien pour les cas où de longues saisies sont considérées.
私たちの方法は、長いインプットが考慮される場合にうまく機能します。
Onze methode werkt goed voor de gevallen waarin lange ingangen worden overwogen.
O nosso método funciona bem para os casos em que são consideradas entradas longas.
Наш метод хорошо работает в случаях, когда речь идет о «длинных» вводах.
Yöntemimiz uzun girdilerin dikkate alındığı durumlarda iyi çalışmaktadır.
我们的方法在考虑长输入的情况下效果不错。
193
Roughly speaking, it is meant for the task orders and input of over two thousand tokens and the targets are shorter than the provided inputs.
وبمعنى تقريبي، هي مخصصة لأوامر المهمة و إدخال أكثر من ألفي رمز وتكون الأهداف أقصر من المدخلات المقدمة.
Grob gesagt ist sie für Aufgaben und Eingaben von über zweitausend Token gedacht, wo die Zieltexte kürzer als die vorgegebenen Eingaben sind.
این مدل به طور کلی، برای دستورات وظیفه و ورودی بیش از دو هزار کلمه در نظر گرفته شده است و اهداف، کوتاه‌تر از ورودی‌های ارائه‌شده هستند.
En gros, c’est pour les ordres de tâche et de saisie de plus de deux mille gages, et les cibles sont plus courtes que les saisies fournies.
大まかに言えば、それは2,000トークン以上のタスクオーダーと入力を意味し、ターゲットは提供された入力よりも短いです。
Grofweg is het bedoeld voor de taak orders en input van meer dan tweeduizend tokens en de targets zijn korter dan de verstrekte inputs.
Grosso modo, destina-se para as ordens de tarefa e entrada de mais de dois mil tokens e os alvos são mais curtos do que as entradas fornecidas.
То есть, грубо говоря, он предназначен для целевых задач с вводом более двух тысяч токенов, где выход короче представленных входов.
Kabaca söylemek gerekirse, görev sıralamaları ve iki binden fazla belirteç girdisi için amaçlanmıştır ve hedefler verilen girdilerden daha kısadır.
粗略地说,这意味着超过2000个令牌的任务订单和输入,并且目标比提供的输入要短。
194
This has some specific applications in NLP.
ولذلك بعض التطبيقات المحددة في معالجة اللغة الطبيعية.
Dies führt zu einigen spezifischen Anwendungen in der NLP.
این روش در NLP کاربردهای خاصی دارد.
Cela a des applications spécifiques en TAL traitement automatique du langage naturel.
これは自然言語処理での特定のアプリケーションがいくつかあります。
Dit heeft enkele specifieke toepassingen in NLP.
Isto tem algumas aplicações específicas em NLP.
Это имеет некоторое специфическое применение в NLP.
Bunun Doğal Dil İşleme'de bazı özel uygulamaları vardır.
这在自然语言处理中有一些具体的应用。
195
For example, one can imagine that given a long document, there's a need to summarize it, classify, answer the question about it, extract information or some key phrases.
على سبيل المثال، يمكن للمرء أن يتخيل أنه عند وجود مستند طويل، تكون هناك حاجة لتلخيصه، وتصنيفه، والإجابة على السؤال حوله، واستخراج المعلومات أو بعض العبارات الرئيسية.
Man kann sich zum Beispiel vorstellen, dass ein langes Dokument zusammengefasst, klassifiziert und eine Frage darüber beantwortet werden muss und Informationen oder einige Schlüsselsätze extrahiert werden müssen.
به عنوان مثال، این مدل را می‌توان برای یک سند طولانی بکار برد که نیاز به خلاصه کردن، طبقه بندی، پاسخ به سوال در مورد آن، استخراج اطلاعات یا برخی عبارات کلیدی دارد.
Par exemple, on peut imaginer qu’étant donné qu’un document est long, il est nécessaire de le résumer, de classer, de répondre à la question à ce sujet et d’extraire des informations ou certaines expressions clés.
たとえば、長い文章があれば、それを要約し、分類し、質問に応答し、情報またはいくつかの重要なフレーズを抽出する必要があると想像できます。
Bijvoorbeeld, men kan zich voorstellen dat gegeven een lang document, is er een noodzaak om het samen te vatten, classificeren, antwoord de vraag over, extract informatie of een aantal belangrijke zinnen.
Por exemplo, pode-se imaginar que, dado um longo documento, há uma necessidade de o resumir, classificar, responder a perguntas sobre ele, extrair informações ou algumas frases-chave.
К примеру, представим себе, что при работе с длинным документом необходимо его обобщить, классифицировать, ответить на вопрос о нем и извлечь из него информацию или ключевые фразы.
Örneğin uzun bir belge söz konusu olduğuna, onu özetlemeye, sınıflandırmaya, hakkındaki soruyu yanıtlamaya, bilgi veya bazı anahtar ifadeleri ayıklamaya ihtiyaç duyulduğunu tahmin edersiniz.
例如,可以想象,给定一份很长的文档,需要对其进行总结、分类,回答有关它的问题,提取信息或一些关键短语。
196
Let me recall the vanilla transformer and our and its issue of its attention complexity that depends on the square of the input line.
اسمحوا لي أن أذكر محول الفانيليا ومسألة تعقيد الانتباه الذي يعتمد على مربع خط الإدخال.
Erinnern wir uns an den Vanilla-Transformer und sein Problem mit der Aufmerksamkeitskomplexität, die vom Quadrat der Eingabezeile abhängt.
اجازه دهید مبدل وانیلی و مسئله پیچیدگی توجه آن را که به مربع خط ورودی بستگی دارد، یادآوری کنم.
Permettez-moi de rappeler la conversion vanille et sa question de sa complexité d’attention qui dépend du carré de la ligne de saisie.
バニラトランスフォーマーと入力ラインの2乗に依存する、アテンションの複雑さの問題を思い出してください。
Laat mij u herinneren aan de vanille transformer en onze en zijn kwestie van zijn aandacht complexiteit die afhangt van het kwadraat van de input lijn.
Deixem-me lembrar o transformador básico e o seu problema de complexidade de atenção que depende do quadrado da linha de entrada.
Позвольте напомнить вам о трансформере Vanilla, а также о его (и соответственно, нашей) проблеме сложности внимания, зависящей от квадратичности линии входа.
Sizlere vanilya dönüştürücüyü ve girdi çizgisinin karesine bağlı olan dikkat karmaşıklığı ilgili bizim ve kendisinin yaşadığı sorunu hatırlatmak isterim.
让我回顾一下普通的转换器,以及我们和它的注意力复杂性问题,这取决于输入行的平方。
197
In the vanilla transformer, with full attention connectivity, relations of each token to every other token have to be calculated.
في محول الفانيليا، مع اتصال الانتباه الكامل، يجب حساب علاقات كل رمز مع كل رمز آخر.
Im Vanilla-Transformer müssen bei voller Aufmerksamkeitskonnektivität die Relationen jedes Token zu jedem anderen Token berechnet werden.
در مبدل وانیلی، با اتصال کامل توجه، روابط هر کلمه با کلمه دیگر باید محاسبه شود.
Dans la conversion vanille, avec une connectivité de pleine attention, les relations de chaque gage à chaque autre gage doivent être calculées.
バニラトランスフォーマーでは、完全なアテンション接続で、各トークンと他のトークンとのrelationsを計算する必要があります。
In de vanille transformer, met volledige aandacht connectiviteit, moeten relaties van elke token tot elke andere token worden berekend.
No transformador básico, com conectividade total de atenção, devem ser calculadas relações de cada token com todos os outros tokens.
В трансформере Vanilla с полной связностью внимания необходимо рассчитать отношения каждого токена с каждым другим токеном.
Vanilya dönüştürücüde, eksiksiz dikkat bağlayıcılığı ile her bir belirtecin diğer belirteçler ile olan bağıntıları hesaplanmalıdır.
在普通的转换器中,在完全注意力连通的情况下,必须计算每个令牌与其他令牌之间的关系。
198
The computational complexity of attention, this depends on the number of layers l, sequence length n, another sequence length, and the dimensionality of representations.
يعتمد التعقيد الحسابي للانتباه على عدد الطبقات وطول التسلسل وطول تسلسل آخر وأبعاد التمثيلات.
Die rechnerische Komplexität der Aufmerksamkeit hängt von der Reihe der Schichten l, der Sequenzlänge n, einer weiteren Sequenzlänge und der Dimensionalität der Repräsentationen ab.
پیچیدگی محاسباتی توجه، به تعداد لایه‌های l، طول دنباله n، طول دنباله دیگر، و ابعاد معرف‌ها بستگی دارد.
La complexité informatique de l’attention, qui dépend du nombre de couches l, de la longueur de séquence n, d’une autre longueur de séquence et de la dimensionnalité des représentations.
アテンションの計算の複雑さは、レイヤーlの数、シーケンスの長さ、別のシーケンスの長さ、および表現の次元に依存します。
De reken- complexiteit van aandacht, dit hangt af van het aantal lagen l, sequentie lengte n, een andere sequentie lengte, en de dimensionaliteit van representaties.
A complexidade computacional de atenção depende do número de camadas l, comprimento da sequência n, outro comprimento de sequência e a dimensionalidade de representações.
Вычислительная сложность внимания зависит от количества слоев l, длины последовательности n, длины другой последовательности и размерности представлений.
Dikkatin hesaplamalı karmaşıklığı, katman sayısına, dizi uzunluğundan, başka bir dizi uzunluğuna ve temsillerin boyutluluğuna bağlıdır.
注意力的计算复杂性,这取决于层l的数量,序列长度n,另一个序列长度以及表示的维度。
199
Similarly, in the decoder's cross attention, to this picture on the right side, the only difference here is that the target tokens are attending to the input tokens in this case.
وبالمثل، في الانتباه المتقاطع لوحدة فك الترميز، إلى هذه الصورة الموجودة على الجانب الأيمن، يكون الاختلاف الوحيد هنا هو أن الرموز المستهدفة تحضر رموز الإدخال في هذه الحالة.
Ähnlich verhält es sich mit der Cross-Attention des Decoders zu diesem Bild auf der rechten Seite, wobei der einzige Unterschied darin besteht, dass die Ziel-Token in diesem Fall auf die Eingabe-Token gerichtet sind.
به طور مشابه، در توجه متقاطع رمزگشا، در این تصویر در سمت راست، تنها تفاوت در اینجا این است که کلمات هدف در این مورد به کلمات ورودی توجه می‌کنند.
De même, dans l’attention croisée du décodeur, à cette image sur le côté droit, la seule différence ici est que les gages cibles sont attentifs aux gages de saisie dans ce cas.
同様に右側のこの画像に、デコーダのクロスアテンションがあります。ここでの唯一の違いは、ターゲットトークンがこの場合入力トークンに参加していることです。
Evenzo is in het kruis van de decoder aandacht, naar deze afbeelding aan de rechterkant, het enige verschil hier dat de doel tokens in dit geval aandacht besteden aan de input tokens.
Da mesma forma, na atenção cruzada do descodificador, para esta imagem no lado direito, a única diferença aqui é que os tokens de destino estão a atender os tokens de entrada neste caso.
То же самое наблюдается и в случае перекрестного внимания декодера (обратите внимание на этот рисунок справа). Единственное различие заключается в том, что целевые токены в данном случае обращаются к входным токенам.
Benzer şekilde, kod çözücünün çapraz dikkatinde (bu resimde sağ tarafta), burada tek fark, bu durumda hedef belirteçlerin girdi belirteçlerine iştirak ediyor olmasıdır.
类似地,在解码器的交叉注意力中,对于右侧的这张图片,这里唯一的区别是,在这种情况下,目标令牌正在关注输入令牌。